https://www3.nhk.or.jp/news/special/international_news_navi/articles/qa/2023/05/15/31594.html記事改定に先立ち、3/8時点での原稿をアーカイブサイトに残します。ご参考に。
ヒントンをサツキバー訪問
今回も日経新聞の記事を起点に記事を始めます。
私が大きな関心を持っていているAIの動向についての話題です!!
始まりはカナダのトロント大学教授ジェフリー・ヒントン氏と教え子のイリヤ・サツキバー氏の会食です。AIについて恐ろしい事を語ります。
昼食を食べy=a/(2040-x)
ヒントン氏とサツキバー氏の話題にあがったのはy=a/(2040-x)という式です!!ここでのyは国民総生産(GNP)でx西暦で表した年数です。aは正の定数。
少し数学が分かる高校生は式が発散していく様子が分かるでしょう。
サツキバー氏の名は先日の
OpenAI社での騒動において有名となりました。その際の解任劇で問題視されていた一つが、AIの進化の方向性であるという憶測も流れています!!
特異点の脅威
何がAIネタで脅威かと言えば、AIの能力が無限に高いことです。サツキバー氏が恩師との会話で問題視した上記の数式が発散していく様子が驚異です。
どう怖いかと言えばAIの能力が無限に高まり人のする仕事が無くなることです!!
望ましい進化への私論
以上の議論でAIの進化を考えてみます。大事に考えるのは次の2つのポイントです。すなわち、
@AIは今後も手法として大規模モデルのネットワークを使い開発されていく。
Aネットワークで学習するモデルに思想を含め判断基準をもたせる。
つまり学習前にAIに対して規範を与える。
うまく言語化出来ているか自信がありませんが、言葉を続けます。モデル内で一定の期間の内に規範を参照する仕組みが不可欠です。無論、誰しもAIに支配される生活は望んでいません。それだから大枠では基本的に開発者は足並みを揃え開発を進めていきます。全体の行動が最適化された時に善意が形成されます。
ただし、規範の設定と運用で議論をしていく仕組みがほしいですね。そして、何よりAIに関わる指示を「具体的に行いたい」と個人的に思っています。人は意見を対立させるものですから経済学でゲーム理論が取り入れられたようにAIの議論でも「対立」の概念を取り入れてはいかがでしょうか。
具体的には個々のAIが、どのように判断するかをジャッジする仕組みを作って公平な土俵で勝負させるのです。鞍点が議論の中で出てくるような議論が出来たらしいですね。対立する人々の間で満足が出来る妥協点を見つけていく事が解決へつながるでしょう。具体的に以下、AIにおける対話型の規範形成と運用の仕組みを構築するためのアイデアを示します。
規範の共同作成と修正:
開発者、専門家、一般ユーザーなど、異なるステークホルダー想定して、全てを巻き込んだ多様なグループを形成します。グループは、AIの規範や倫理に関するディスカッションを行い、共同で規範を作成・修正します。
ゲーム理論の導入:
AIの意思決定に関する議論では、ゲーム理論の原則を活用して異なる利益や視点を考慮に入れます。対立する立場がある場合、ゲーム理論を用いて最適な妥協点や解決策を見つける努力をします。
ジャッジメント・フレームワークの構築:
AIが判断を下す基準やプロセスに関する透明性を確保するためのジャッジメント・フレームワークを設計します。これにより、開発者やユーザーがAIの判断を理解し、必要に応じて議論の根拠を検証できるようになります。
デリバレーティブ・デモクラシー:
意思決定のプロセスを透明で民主的なものにするため、デリバレーティブ・デモクラシーの原則を導入します。グループ内の多様な意見を尊重し、意思決定において異なる立場を均等に考慮します。
検証と改善サイクル:
AIが規範を遵守しているかどうかを定期的に検証し、必要に応じて修正を行います。ユーザーフィードバックや新たな倫理的な課題に対応するため、継続的な改善サイクルを確立します。こうしたアプローチは、AIの規範に対する透明性と民主性を高め、議論や対立を解決するためのフレームワークを提供します。
〆最後に〆
以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。
nowkouji226@gmail.com
また、この記事はChatGPT社のOpenAI
の情報を参考として作成しています。
【全体の纏め記事へ】
【
雑記の纏め記事に戻る】
【
Python関係の関連記事】
【
テックジムまとめ】
メインサイトに戻る(リンク)