はじめに
blenderを使って3Dデザインを始めたが,一人ではらちが開かないのでAI君(4o)と一緒に行ってきた.しかし,ある質問では,「うそ」をしこたま「つく」. ある記事にその理由が記載されていたのでそれを参考に身近で起きているハルシネーションについて述べてみたい.
最初に,一貫性が無い情報では「嘘をつく」確率は高いように思う.具体的には,公文書などの間違いが極端に少ない情報をもとにAI君が出した回答は,自分の知識・経験から妥当性が高く正解率が高いと個人的には感じる.
ところが,3Dデザインソフトである「blender」の操作法について回答を求めると途端に「嘘」をつき出す.特に込み入った操作に関する質問についてはその確率は非常に高い.100%と言っていいくらいだ.
このような嘘をつくことを「ハルシネーション」という.
なぜハルシネーションが起こるのか.blenderのバージョンによる操作法の方言(改変)が,ネット上に多数存在する事が大きな原因であると考えている.では,バージョンを指摘して質問すればよいと考えてしまうが,それでも結果は同じで,質問である操作法の部分操作の一部にしかバージョンが合ってなくてその他は以前として「うそ」がある答えを出してくる.それでもめげずに,内容を精査して,再度,「この部分はバージョン4.4.には存在しませんよ」と指摘すると,謝罪し修正案を提示するものの以前の修正箇所が元に戻っていたりする.何度やってもちぐはぐな答えを吐き続ける.
ひとりごと : と言う訳で,blenderにおけるgeometryに関するnode設定の仕方は以前として習得できていない.
*ハルシネーション: 幻想,妄想.ちなみに睡眠薬である「ハルシオン」がこの単語から発送して命名したのではないかと個人的には思い込んでいる.だれか,知っていたら教えてください.
ChatGPTの内部動作
言語モデルでは,文章を穴埋めで処理し最終的に答えを出すという.その選択の判断は確率(エントロピー)が高い単語や文章を選択し穴埋めに充てていく.しかし,先頭から一つずつ穴埋めし続けていくと必然的に誤差が蓄積する.人間の場合は,結論がおかしいと気づいたら最初から思考をやり直すが,AI君はそのまま答えとして我々に提示してくる.これがハルシネーションを起こす原理の一旦であると考えられているらしい.では,AIは分かりませんと言えないのか? その答えは「いえない」だ.その選択を選んでしまうようには作られていないと言っていい.そうしてほしいのであるけれど.
Keyword : ハルシネーション (英: hallucination)、幻覚(げんかく)、でたらめ 、作話(さくわ、英:confabulation) 、ディルージョン(妄想、英:delusion)
編集履歴
2025/05/31, Mrはりきり