(沖縄タイムス2024年11月13日論壇)                                 

人工知能(AI)関連の研究がノーベル物理学賞と化学賞に決った。私は、これを聞いたとき、おどろいた。AIは物理学でなく情報処理の分野であり、受賞者も私のよく知っている名前だったからだ。

最近、AIの話題で持ちきりだ。特に一昨年から出始めたChatGPTは、技術史上最速で普及している。ChatGPTは人間以上の立派な文章を生成するので、これを利用して論文・レポートを書くことを禁止している大学もあるくらいだ。このAIブームがノーベル賞のきっかけになっているとも言われている。

コンピュータが開発された初期のころから、AIを評価するためにチューリングテストというものがあった。対話の相手が人間かAIか区別ができなくなったとき、人間と同等の知能として合格というものだ。

ChatGPTは、人間と同等どころか、普通の人間より立派な文章を生成する。私は著書「音声言語処理入門」に、ChatGPTとの会話「イリオモテヤマネコを発見した伯父さん」と題したコラムを書いた。これを読むと、ChatGPTがいかに優れた文章を生成するかが分かるだろう。

しかし、十分な学習用データがない場合は、ChatGPTは「うそ」の文章も生成する。コンピュータは、速くて正確なことが売りだ。ところがChatGPTは不正確どころか、真赤なうそもつく。最近は、「ChatGPT の回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください」という注意書きを自身のホームページに出している。

また、ChatGPTには解けないタイプの問題もある。私が確かめた例は、「12個の玉の問題」だ。これは、「見かけじょう全く同じ12個の玉がある。そのうち1個だけ重さが違う。天秤を3回だけ使ってこれを見つけよ。その1個が重いか軽いかは分からない」というものだ。インターネットに書かれている複数人の解答を組み合わせると正答にならない。論理的につながらないからだ。

ChatGPTが生成する文章はすばらしく、立て板に水だが、意味を理解していないので、論理はパッチワーク(継ぎはぎ細工)なのだ。

ノーベル賞を受賞するヒントン氏は、AI研究のための自社をグーグル社に買収され、そこで研究を続けていた。だが、現在はAIの行く末を憂慮して会社を辞めている。ヒントン氏は、AIから一歩引いた後にノーベル賞を受賞することになったのだ。