「ChatGPT」は2021年9月までの情報しか学習していないので最新情報に疎いことと「Perplexity.ai」の様に情報源を明示してくれないので事実確認に手間が掛かることが問題だ。
それにしても「ChatGPT」の答えに知性を感じるのは何故だろうと思っていたら23/01/10(金)に技術的な解説記事が掲載された。6ページ目にその技術的な"トリック"の種明かしが記述されている。
参考:なぜ人々は、ChatGPTという“トリック"に振り回されるのか? Google「Bard」参戦、チャットAI戦争の行方
https://www.itmedia.co.jp/news/articles/2302/10/news060.html
人間の錯覚に関しては放送大学『錯覚の科学』の第2回「視覚の錯覚 見ることは考えること」で「知覚とは無意識の推論と同等である」というヘルムホルツの言葉から「個人の既知の知識・経験・期待(スキーマ)」による概念駆動型のパターン認識で「見えたものの決定」が行われるとの説明があった。
これは文章でも同等に処理されているのだろう。本当に無意識で行間を想像して文意を認知している為、それが錯覚とは自分で判断出来ないのが怖い点だ。しかも「ChatGPT」は一致しない情報でも関連する単語を結び付けて文章を創作するため自信満々に嘘の情報を答えてくる。まるで現代の「オオカミ少年」の様だ。
そこに新Bing AIチャットが発表された。早速利用を申し込んだところ「You're on the waitlist for the new Bing!」のメールが届き、2日後には「You're in! Welcome to the new Bing!」と利用できるようになった。
使ってみると最新情報まで網羅している点とPerplexity.ai」の様に情報源を明示してくれる点、知らないことは「知らない」と答えて関連しそうな候補を提示してくれる点が優れている。また「ChatGPT」よりサーバーの反応は良いと感じる。
新Bing AIチャットは実用的だが、「ChatGPT」に比べチャットのログを保持しないこととログの保持数が少なく何回もリセットする必要があるのは残念だ。
質問文によっては情報が入り混じった文章になることもあり間違えてくるのは仕方ないところだろう。それでもうろ覚えの情報を打ち込めば該当しそうな情報と候補を返してくれるのは助かる。
これは新しい検索体験を楽しめそうだ。
【このカテゴリーの最新記事】
-
no image
-
no image
-
no image
-
no image
-
no image