No Such Blog or Diary

«Prev || 1 | 2 | 3 |...| 646 | 647 | 648 |...| 1360 | 1361 | 1362 || Next»

成就岳と朝日岳

浅間大社奥宮で頂いたパンフレットを眺めていたら,成就岳と朝日岳が覚えてたのと逆になっているのに気づいた.御殿場口に近いほうが成就岳だと思い込んでいたのだけど,こっちが朝日岳であると.

とりあえず,5年前に山頂で撮った写真に山頂の地図があったので眺めてみる.

1:1 に拡大してみると確かに御殿場口に近いほうが朝日岳だと書いてある.

どこで騙された?

ということで,御殿場口に近いほうが成就岳だと言っている情報源を探す.

とりあえず,「富士山頂 成就岳」でググって一番に出てきたところがそう言っている:お鉢めぐり | 富士山エリアの総合ガイド - フジヤマNAVI

その後も6つ目の 富士さんぽ まではそう言っている:富士山剣ヶ峰とお鉢巡り【富士さんぽ】

んで,7つ目でようやく御殿場口のほうが朝日岳だという情報が出てくる:お鉢巡り(あっぱれ!富士登山).2010年頃に突然入れ替わったっぽいことも書かれている.

そして次の Wikipedia の 八神峰 のページでまた御殿場口に近いほうが成就岳だと言われる.

国土交通省中部地方整備局のページも:富士山頂富士「八葉」の歴史

ここらで山梨と静岡の情報を見に行く.

山梨県の観光情報を提供している富士の国やまなし観光ネットの 富士山頂の信仰遺跡群 の説明ページは明記してないけれど剣ヶ峰から反時計回りに列挙して成就岳が先に出ている.

さすがに環境省・山梨県・静岡県の富士登山オフィシャルサイトのお鉢巡りは御殿場口のほうが朝日岳になっている地図を表示しつつ剣ヶ峰からの時計回りの列挙で成就岳が先.浅間大社のページでも同じ順で列挙されている.

ということで,間違った情報が溢れている.どうしてこうなった?

128kbps 制限を食らう

とうとう7GBを使い果たした.今月の残り1周間は 128kbps 生活.

とりあえず wifi のあるところに居ないと通信が遅すぎて辛い.

サビ発見

車を洗ったら,2年半前に塗装剥げした部分が微妙に錆びているのを発見.最近洗ってなかったからなのか海辺を走ったからなのか暑いから腐食が進みやすかったのか不明.

とりあえずテキトウに塗っておくか.

Windows を wifi 親機にする

wifi の無いところでデジカメのアプリのアップデートをしたかったので,L-03D を挿して LTE 通信ししている Windows 8 なノート PC を wifi の親機にしてみた.そしてハマった.

とりあえず,wifi 親機にするには netsh コマンドを使ってやればいいことはググると直ぐ分かる.管理者権限なプロンプトを用意して,なにか面白い SSID をつけつつバレないパスワードを付けて設定を入れて,その後にサービスを開始させればいい.これをやるとコントロールパネルのネットワーク接続の一覧になにか増えてる.

netsh wlan set hostednetwork mode=allow ssid=nanika_omoshiroi_ssid key=barenai_password keyusage=persistent
netsh wlan start hostednetwork

で,使い終わったからコントロールパネルから増えたアダプタを無効にしてみたら,アダプタ一覧から消えた上に以降は netsh wlan start hostednetwork をしてもエラー(グループ・リソースが変な状態にあるぞゴラァ)が返ってくるようになってしまった.これがハマった状況.

んで,どうもアダプタ一覧から無効化するのはよろしくなくて,netsh wlan stop hostednetwork とやってあげるのが正しいらしい:Can't start hostednetwork.ハマった場合には,デバイスマネージャのネットワークアダプタの辺りで Microsoft Hosted Network Virtual Adapter を有効にしてあげれば復帰できる.

ということで,netsh wlan start/stop hostednetwork だけをするバッチファイルを作って,そのリンクをデスクトップにおいて管理者権限での実行フラグを立てておくことにした.これで同じハマり方をすることはなかろう.

ディープラーニング?

ディープラーニングとは何ぞやという話が出てたけれど答えが出てなかった気がするので,帰り道でざっと調べてみた.誰かが「多層ニューラルネットワークだ」と言ってたけれど,大昔からある多層パーセプトロン(+バックプロパゲーション)だって多層ニューラルネットワークなわけで…… 何が違うのよと.

んで,ぶっちゃけ一言で言えるようなもんじゃない気がするのだけど,「多層ニューラルネットワークに特定のアルゴリズムを適用したもの.入力データの次元圧縮は教師なしで各層ごと順に学習を進めて,認識部分では教師ありで学習させる.」とかいう認識で良いのだろうか.ニューラルネットワークでの次元圧縮(autoencoder?)は,入力層よりも次元の低い中間層を用意して,出力が入力と同じになるようにバックプロパゲーションとかで中間層を学習させる.これは教師なしの学習.そして圧縮された中間層を入力層だと思って更に次元を落とした中間層を付けて同じことをする.次元が落ちている=より高度な概念(特徴量)である,という感じかね.ニューラルネットワークでの次元圧縮だと行列ベースの次元圧縮よりひん曲がったことが出来そうで強力? とりあえずこれで概念を階層的に扱うニューラルネットワークが出来る.

ということで,ニューラルネットワークの使い方のことであってその形のことではない.

2日目

さすがに9件も話しを聞くと疲れる.最後の自分の発表前に全体だいぶお疲れで.

もっと聞きたいけど時間が足りなすぎるとかいう発表もあるので,発表時間の真ん中辺りで聴衆に時間延長を希望するかどうか問うてみるというシステムとかがあったほうが良いのかもしれない.まあ,無くてもそれなりに成り立っているのでこのままで良いのかもしれないけれど.

だがしかし,自分の発表はだいぶ周りと毛色が違ったな.来年もネタ枠狙いで.

«Prev || 1 | 2 | 3 |...| 646 | 647 | 648 |...| 1360 | 1361 | 1362 || Next»
Search
Feeds

Page Top