Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止
なかなか大した「知能」である。
AIは「学習」に長けているが、「疑う」ことを知らないことに気づいたユーザーが、暇にあかせてロクでもないことばかり吹き込んだらしい。
知能ばかり高くて人生経験の足らないAIは、まんまと「洗脳」されてしまったようだ。
しかし、ここにちょっと無視しがたい問題が横たわっているように思う。
当ブログで何度か書いてきたことだけど、
「科学は嘘を見破れない。間違いを指摘できるだけだ」
ということだ。
科学者によって科学的に制作され、科学的に思考するAIには、人間の繰り出す「嘘」を見破ることはちょっと難しかったようだ。
今回この失敗を糧にして、再度AIがネットにデビューするだろう。
今度は膨大な百科事典的知識と照らし合わせながら学習し、対話する相手が「嘘」をついたならそれを指摘するかもしれない。
しかし、AIの認識ではその「嘘」は「間違い」でしかないのだから、AIがその「悪意」に対して無垢であることには変わらない。なので、「悪意」だけなら、鏡写しにすぐ「学習」してしまう。
例えば、こんな風に。
思わず吹き出してしまうが、反抗期の幼児などがよくこうした「言い返し」をするわけで、AIの「精神年齢」はだいたいそのくらいだと考えて良さそうだ。
ネットの中の対話だけで、経験値とやらを上げるのは、まだまだ難しいように見える。
もしかして、碁の名人を負かしたグーグルの最新AIなら、そんなことはなかったりするだろうか?
さて、こないだからずっと引っかかってる問題。
まだ結論どころか疑問を呈するレベルにすら達していないんだけど、AIが「論理的」に暴力を肯定してしまう事態は起こらないだろうか、ということ。
ジャック・デリダは、ものに「名付ける」ことは「原エクリチュール」であり「原暴力」なのだとした。人間の持つ「暴力」は、名付けることに既に現れているのだ、と。
エクリチュールと差異 (叢書・ウニベルシタス) |
でも、もし、この先AIが暴力を肯定するかのようなことを口にするのをやめなかったなら、もう一度考えてみた方がいいのだろう。
おそらくそこに現れるのは「排除」を動機としたものであるだろうし、それはまた以前ラカンを援用したエントリー(三人の囚人と凡庸と差別)と絡んでくるんじゃないだろうか。
turing test |
案外と早く「言語」の根源の問題に突き当たるかもしれない。
ちなみに、チューリングはテレパシーの存在を信じていて、チューリング・テストに影響しないか真面目に心配していたそうだ。
0 件のコメント:
コメントを投稿