2019年4月12日金曜日

サイエンスカフェあわてて準備(物理と数学)

サイエンスカフェが迫ってきた。いつものように?あわてて勉強している。いつものことだが,一般の方からの容赦のない難しい質問にどう答えればよいのか,考えても妙案が浮かばない。
人様の知恵を借りようとするのもいつものことだ。。

今回は須藤泰著,「不自然な宇宙」(ブルーバックス)を読んでいる。
その中で 興味のある 部分があったので考えてみたい。
 
 物理はどうして数学で 記述できるのかという問いかけである。 そういえば,物理を 数学で記述できるわけがわからず, 気味が悪いので?物理を止めたと言う 話を聞いたことがある。
 私も常々学生諸氏に,「 物理というのは自然現象を数学という言語で記述することだ」と言っているのだが ではなぜそれが可能かと言われるとちょっと答えに窮する。

須藤泰さんは 3つ場合に分けている。 簡単に紹介すると,
穏健派
  世界が数学で記述できるのは, 物理屋の思い込みで うまく記述できる部分を記述しているに過ぎない。
中道派
  確かに今はうまくできる部分を記述しているに過ぎないけど,そのうち もっと色々なことが,数学で記述できるようになるだろう。 それは完全な技術ではなく近似的なものかもしれないのだけど。
過激派
  世の中は単に数学で記述出来るように見えるだけでなく,厳密に数学に従っている。

須藤氏曰く,多くの物理屋は中道派の考えではないか。 私もそうかなと思う。
 今,素粒子の振る舞いは標準理論という数学的体系で記述できる。でもこれは,今観測できていることをたまたま数学という道具で記述できただけかもしれない。 もちろん自然現象する 記述するためにその言葉である数学そのものが発展してきた。 自然を記述するために人が数学を作り上げてきたことも確かだ。
この先例えば宇宙の究極の あり方が 数学で記述できるだろうか。 それは分からないのだけど多くの物理学者は,できるのではないかと思っている,そんな気がする。

「知性」はどうだろう。 知性を数学で記述できるのだろうか。 もし知性が 今流行っているような ニューラルネットワークで構成されるものであれば,そのうち それを記述する体系ができるような気がする。 しかし今のところ 分からないというのが,本当のところではないだろうか。

では,「意識」はどうだろう。 意識を 数学で記述できるかどうか,これは さっぱり分からない。 もちろん過激派物理屋は,意識も 数学で記述できる日が来ると考えているのだろう。 しかし,数学による記述を,客観的な記述と言い換えると, 主体と客体を分離できない意識が数学で記述できるか 甚だ疑問である。少なくとも今私たちが知っている数学と呼ばれるものとは, 別の体系の何かが必要ではないだろうか。

人の脳というのは,不思議なものだ。

2019年4月6日土曜日

授業がはじまる

来週から授業が始まる。今年は,月曜日の最初の授業で1年生にあう。つまり彼ら彼女らの大学で始めての授業となるわけだ。科目は情報活用演習,物理ではない。もちろん物理のための情報活用が主題で,それをやるつもりだが,,

 Facebookには何度か書いたと思うけど, Yuval Noah Harari氏の本をよんでい。サピエンス全史,ホモデウス。3冊目の21 Lessons for the 21st Centuryはまだ日本語が出ていないようだ。
Harari氏曰く,「今と昔の大きな違いは,数十年後の世界がどのようになっているか想像できないこと」確かにそうだろう。

 私が大学生,大学院生だったころ,インターネットがこんなに世の中を変えるとは思っていなかった。しかし,パソコンらしきものはあったし,コンピュータはネットに繋がり始めていた。その発達は(少なくとも私の)想像を大きく超えるが,30~40年前と今で社会の仕組みが全く変わったと言うわけではない。

 今から30年~40年後はどうだろう。
 昨年ある講演会で高校生が,「自分が大人になったとき,仕事はほとんどAIがやってしまうのではないか。」と質問していた。講演者は,「そんなに心配することはない。人にしかできないことは沢山ある。」と答えていたが,果たしてそうだろうか?

 AIのできることは我々の想像を遙かに超えると思う。AlphaGoが人間に勝ったのはほんの数年前だが,その後の進展もすさまじい。

Wikipediaによると,後継のAlphaGo Zeroは自分自身で対極を繰り返し,ルールを覚えて40時間後にそれまで最強だったAlphaGo Master(人よりは遙かに強い)を圧倒した。さらに後継のAlphaZeroは8時間でAlphaGo Zeroを上回ったそうだ

 AIは決して単独の人工知能ではない。あらゆるデータは世界のどこかに蓄積されつづけ,ネットワークでリンクされる。人の体にICチップを埋め込むなんで今でもやろうと思えばできる。

AI,ビックデータ,バイオテクノロジー,,,これらすべてが一体となって次世代の技術革新を生み出す。

数十年後,人でなければできないことはどれくらい残っているのだろう?
杞憂にすぎないのか,本当なのか?それさえも分からない。

「数十年後の社会がどうなっているか誰も分からない」ことは正しいと言えるのではないか。

さて,来週の月曜日,その数十年後に社会の中核となる年代の学生に情報活用の授業をする。何を教えればよいのだろう。教えるなんてとてもできない
何があっても動じない,知的体力をつけてもらうように務めようか。。

2019年3月24日日曜日

北京に行ってきた(お金支払い事情)




中国の研究者との共同研究のために、北京にある、中国科学院効能物理研究所にいってきた。最近、年に数回訪問しているが、昨年7月以来となった。
 滞在したホテルから研究所まで、歩るくと30分少しかかるが、今回もシェア自転車。モバイクを使った。
街のいたるところにこのようなオレンジのの自転車がおいてある。それぞれの自転車にはGPSがついていてアプリ上に場所がしめされる。アプリでQRコードを読み込めば
自動的に解錠。使ったあとは、鍵をかければ、アプリに利用時間や乗った距離が表示される。30分1元(約16円)と料金も格安だ。

モバイクのアプリ。自転車の
場所が地図上に示される
モバイクのアプリ画面は、左のような感じ、オレンジの丸が自転車のある場所。ロック解除をタップすると、カメラが起動してQRコード読むことができる。


ところが、このシェア自転車。中国であまりに急速に広まったため、経営が怪しくなった業者もいるようだ。今回、このオレンジの自転車は多く見かけたが、以前同じようにあった黄色い方はほとんど見なかった。オレンジの方(モバイク)は、日本でも営業していたが、撤退するという話だ。アプリの認証は携帯のSMSをつかって行うのだが、日本から撤退するせいだろうか、日本の携帯番号にはメッセージが来なかった。困ったなとおもっいると、中国のメジャーSNS(LINEみないなもの)WeChat(微信)のアカウントをつかって認証できて、事なきをえた。中国ではLINEは使えないので中国の研究者との連絡用にWeChat のアカウントを持っていたのが役に立った。

WeChat Payの支払い画面は
こ感じ
今回もう一つ、WeChat Pay(微信支付)を初めて使った。よく言われているように、中国ではキャッシュレスの支払いが普及していて、店頭で携帯のQRコードを見せて支払い済ますことが多い。WeChat Payはこれができる。ただし、WeChat Payにどうやってお金をいれるかが問題。中国の銀行に口座をもっていれば簡単だが、最近は短期滞在の外国人が現地の銀行に口座を開くのが難しくなっているらしい。(そもそも口座が必要あほど滞在していないし)現地で、WeChat を使っている中国人から自分のWeChat Payに送金してもらい、その人に現金で支払うという方法があるが、あまり良い方法とは思えない。実は日本で予めチャージする方法がある。羽田空港や成田空港にポケットチェンジというATMがあって、これを使うと現金から、各種電子マネーにチャージできる。そもそもは旅行で余った外貨を日本の電子マネー(SUICAとかedyとか)に入れることを考えているようだが、入金先にWeChat Payもある。そこで中国に行く前にこれをつかってWeChat Payに少し元をいれて行った。支払いにはこの画面をかざせばOK。お店がQRコードを表示してそれを自分のカメラで読む方法もあるが、これは今回試す機会がなかった。

中国のホテルから広島の居室のPCにつないで
いる。快適だった。
最後にすこしだけ、仕事の話も。左の写真の画面は中国い持っていたPCだが、画面に写っているのは、広島の居室のPCデスクトップ。今回不思議なことに、滞在したホテルのネットから、googleやyoutubeに接続できた。スピードも上々。そこで、北京からリモートデスクトップで、広島につなぎ、それを北京にもっていたPCのを切り替えながら仕事をしていた。ちょっと時間のかからるシミュレーションをしてたのでこれは、役に立った。彼の国のことなので、次にいったときはまた事情が変わっている可能性は高いが。。





2019年3月8日金曜日

自動文字起こしその2

数日前に投稿した、自動文字起こし。実際に試した。
音源は、記者会見の同時通訳。音質は良いが、同通なので、スムーズな喋りではない。
長さはちょうど60分。

まず、60分通して自動で文字起こし。通してと言っても、途中で途切れる事もある。
このやり方難点は、pc内部で再生ソフトー音声入力ソフトに音を渡すので、スピーカーからは聞こえないことだ。(windowsは同時に一つのデバイスしか再生できない。方法あるか要調査)
そこで波形を表示しながら再生するソフトで、音を目でモニターし、音が出ているのに、タイプが止まったらそこからやり直した。これが結構面倒。
結局、通して起こすのに2時間くらいかかったか?

その後、音を聞きながら、文章をチェック。
この時はホットキーで繰り返し再生できる、文字起しソフトを使った。
これに2ー3時間くらいかかったかな。

結局60分の文字起こしに4〜5時間。

普通、文字起こしの時間は(初心者でない人がやって) 60分で3〜6時間らしい。

多分、これまで人生で数回くらいの私がこの時間でできたのは上出来。

2019年3月5日火曜日

自動文字おこし



そういつもではないが、文字おこしをする事がある。かなり面倒な作業だ。音源が日本語ならまだしも、英語だともうお手上げ。
だが、最近音声入力の精度が非常に良くなっている事に気付いた。google docの音声入力の精度はかなりなものだ。しかし、これは基本マイクで話した言葉で入力する機能だ。文字おこしの場合、録音やビデオから音を入れなければならない。何とかならないかなっと思ったら、方法があった。パソコン内部で音声の出力と入力をつなぐ、virtual cableと言うソフトだ。(windowsの場合。Macはsound flowerと言うのがあるらしい) これを使うと、マイクやスピーカーのディバイスとして認識されるので、これを規定のデバイスにする。あとはプレヤーで音を出して、google docsのvoice typingをonにすればよい。ただし、音声出力と入力をパソコン内部でつないでいるので、スピーカーからは何も聞こえない。
試しにYoutubeを使ってやってみた。音源は英語。

画像が小さくて良くわからないが、ほぼ完璧。ほかの音源も試したが、普通の話言葉くらいのスピードなら追いつく。これは使えそうだ。




2019年2月26日火曜日

必携PC活用シンポジウム

先日(2019年2月21日)の、必携pc活用シンポジウムは、70名を超える方の出席で大変盛況だった
HPには、講演資料やオンラインで受け付けた質疑も掲載している。

講演で注目を集めたものの一つが、必携pcを使った教育データの収集と解析だった。
LMSとクリッカーを連動させて、学生の着席位置と活動、成績の関係を見ることができる。
教科書を電子書籍化すると、教科書をいつどのくらい読んでいるか、日常、授業中にかかわらず知る事ができる。
これらのデータから学生の成績を予想する試みも行われているとのこと。
この話、ビッグデータについての課題でもあると思う。
学生の成績予想は、科目に留まらず、留年予想、奨学金獲得予想、大学院進学予想など、直ぐに拡張できる。入試成績との比較も簡単だろう。
学生の行動のかなりの部分のデータが蓄積されるのだから、例えば自閉症スペクトラム疑いなど、疾患の可能性も把握できる。
勿論授業を行う教員にとっても同様だ。授業のやり方と学生の反応が具体的かつ明白に分かる。
このような膨大かつ重要なデータを誰が持ち、どの様に使うのか? とても重要な課題だろう。
もっとも、今でも、googleやfacebookなどは、膨大な個人情報を既に持っていて、我々はそれがどう使われているかを知ひらないだけだ。
教育ビッグデータを通じて、このような世界を実感し、さらにそれが進む将来の事を考える機会とする事ができるとしたら、pcの必携化は重要な手法を与えているのかもしれない。