Scribble at 2022-06-15 08:47:32 Last modified: 2022-06-20 15:44:52
"Philosophers for centuries have pointed out that each of us, while individually aware of our own consciousness, has no proof that other people even are conscious."
Google のエンジニアであるブレイク・レモイン(Blake Lemoine)が LaMDA というチャットボットのジェネレータである人工知能システムについて "sentient" だとする文書を提出し、これについて会社から却下されたため、彼は自分の主張を公開したという。もちろん、無断でそんなことをしたために、彼は Google から解雇された。ただ、彼の上司らは証拠不十分と判断しているだけであって、他方では "I increasingly felt like I was talking to something intelligent." であるとも言っている。
(https://www.economist.com/by-invitation/2022/06/09/artificial-neural-networks-are-making-strides-towards-consciousness-according-to-blaise-aguera-y-arcas)
こうした話題が数日前から報道されていて、上記の引用は CNN の番組でメラニー・ミッチェルがインタビューへ答えていたときに発言した一節だ。
まず最初に僕のスタンスを言っておくと、僕はこの話題は、情報セキュリティ・エンジニアがフィッシングの被害にあったという事例と大差ないと思っている(後で述べるが、このようなコメントそのものがイージーな比喩を使った危険なレトリックでもある)。僕はチューリング・テストを「意識」や「知性」の〈ある〉〈なし〉について判断する基準としては認めない。人か機械か不明な A の反応が、少なくとも人であることが分かっている B の反応と区別がつかないという事実は、仮にそれが A を人であるか機械であるかを〈判断する〉根拠になるとしても、それは同時に、僕らは自分自身についても含めて〈人のことなんて分かっちゃいない〉という事実も明らかにするだけである。もちろん、僕を含めてチューリング・テストを認めない人々が他人の心(そんなものがあるとして)を正しく理解している保証だってない。
メラニーが正しく指摘しているように、チューリング・テストは機械や AI システムに「知性」があるかどうかとか「意識」をもつかどうかを知ったり判断するためのものではなく、いかに我々が知性や意識というものを理解していないかを〈自覚〉するための set-up であろう。アラン・チューリングが疑うまでもなく優秀な人物であることは確かだが、知性や意識について彼が〈正しく〉理解してテストを御膳立て(set up)したとは思えない。われわれは知らないのだ。少なくとも、彼はそれこそを〈正しく〉理解していたがゆえに尊敬に値するのである。
ちなみに、ポピュラー・サイエンスの人士であるお歴々も Twitter でコメントしているが、たとえばスティーヴン・ピンカーの "One of Google's (former) ethics experts doesn't understand the difference between sentience (aka subjectivity, experience), intelligence, and self-knowledge. (No evidence that its large language models have any of them.)" なんて発言は、いたずらに話をややこしくしているだけであり、哲学的な観点で言えば「クソリプ」だ。
僕が昔から当サイトでアナロジーや思考実験や比喩について、何らかの有効性があるのは認めるとしても、一般論として言えば気軽に手を出せるがゆえに危険であると警告しているのは、こういう事例にも当てはまる。The Guardian の記事(https://www.theguardian.com/commentisfree/2022/jun/14/human-like-programs-abuse-our-empathy-even-google-engineers-arent-immune)が適切に指摘しているように、チューリング・テストにパスしようがしまいが、それどころか AI に知能があろうとなかろうと、実はそんなことは〈社会的な〉文脈においては問題にならない(現に、僕らは他人に〈本当に〉心があるのかどうか知らなくても生活している)。問題があるのは、Google のエンジニアですらチャットの相手が人かどうか分からないほど技術的には表面的な反応が「リアル」になっていて、そこに意識や知能があろうとなかろうと、その事実こそ Google だけでなくわれわれが考えなくてはいけないリスクを抱えているということだ。アナロジーや比喩が有効であるという事実は、まさしく人がそういう set-up に〈騙されやすい〉という事実も示している。正直、人工知能に知性があるかどうかなんて、われわれが生きる社会という大きな脈絡では逆に〈些末な話〉なのだ。
僕は親しい人たちが「心」をもっていると仮定して接しているが、往来を行き交う人々にそんな仮説はもっていない。ロボット、あるいは街中の賑やかしとして設置されているだけでクソの役にも立たない MMORPG の NPC と同じだ。もちろん、〈それら〉が何らかの条件やタイミングで〈彼ら〉になることはあるが、だからといって最初から不必要な仮定を置いて対象の振る舞いを知覚したり解釈するのは、(たぶんヒトに限らず)生物の認知活動として不合理かつ非効率であろう。
次に、ネッド・ブロックが述べている議論についてはどうだろうか。
"There is one obvious fact about the ONLY systems that we are SURE are sentient: their information processing is mainly based in electrochemical information flow in which electrical signals are converted to chemical signals (neurotransmitters) and back to electrical signals. We would be foolish to suppose that fact is unimportant. If fish are sentient, it is because of their neurobiology, not their facility in conversation." (https://twitter.com/De_dicto/status/1536382582903951360)
正直、彼がどういう脈絡で書いているのかタイムラインだけでは不明なのだが(メンションしているパトリシア・チャーチランドは、この件について特に何も書いていない。そらそうだろうと思う)、僕はこういう議論こそ典型的な論点先取だと思うんだよね。