アフィリエイト広告を利用しています
ファン
<< 2024年03月 >>
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31            
最新記事
写真ギャラリー
日別アーカイブ

広告

posted by fanblog

2024年03月09日

AIと善意【y=a/(2040-x)の脅威】

https://www3.nhk.or.jp/news/special/international_news_navi/articles/qa/2023/05/15/31594.html
記事改定に先立ち、3/8時点での原稿をアーカイブサイトに残します。ご参考に。

ヒントンをサツキバー訪問


今回も日経新聞の記事を起点に記事を始めます。






私が大きな関心を持っていているAIの動向についての話題です!!



始まりはカナダのトロント大学教授ジェフリー・ヒントン氏と教え子のイリヤ・サツキバー氏の会食です。AIについて恐ろしい事を語ります。

昼食を食べy=a/(2040-x)


ヒントン氏とサツキバー氏の話題にあがったのはy=a/(2040-x)という式です!!ここでのyは国民総生産(GNP)でx西暦で表した年数です。aは正の定数。

少し数学が分かる高校生は式が発散していく様子が分かるでしょう。

サツキバー氏の名は先日のOpenAI社での騒動において有名となりました。その際の解任劇で問題視されていた一つが、AIの進化の方向性であるという憶測も流れています!!

特異点の脅威


何がAIネタで脅威かと言えば、AIの能力が無限に高いことです。サツキバー氏が恩師との会話で問題視した上記の数式が発散していく様子が驚異です。

どう怖いかと言えばAIの能力が無限に高まり人のする仕事が無くなることです!!













懸念は、失業の増加や労働市場の変化、経済格差の拡大などが挙げられます。以下にいくつかの要点を挙げてみましょう。

失業の増加:


特定の業種や職種でのAIの導入が進むと、対応できるスキルを持たない人々が仕事を失う可能性があります。これにより、一部の人々にとっては雇用の機会が減少し、経済的な不平等が拡大する可能性があります。

労働市場の変化:


AIによって一部の仕事が自動化されると、新しい職種やスキルが求められるようになります。しかし、既存の労働力が新しい要件に適応することが難しい場合、適切なトレーニングや教育の提供が必要です。

経済格差の拡大:


AI技術を導入できる組織や個人が他者を圧倒するような場面が生まれる可能性があります。これにより、経済格差が拡大し、富の分配に不平等が生まれることが懸念されます。

人間らしいスキルの価値:


一方で、AIがルーチンな仕事を担当する一方で、人間の特有のスキルやクリエイティビティが重要となるかもしれません。人間が持つ感情や倫理的な判断力、創造性などが、AIでは難しい領域です。

これらの課題に対処するためには、教育・訓練の充実、新しい雇用機会の創出、社会的な支援制度の見直しなど、包括的な対策が必要です。AIの発展を活かしながら、社会全体が持続可能かつ公正な形で変化していくことが求められます。













望ましい進化への私論


以上の議論でAIの進化を考えてみます。大事に考えるのは次の2つのポイントです。すなわち、

@AIは今後も手法として大規模モデルのネットワークを使い開発されていく。

Aネットワークで学習するモデルに思想を含め判断基準をもたせる。
つまり学習前にAIに対して規範を与える。

うまく言語化出来ているか自信がありませんが、言葉を続けます。モデル内で一定の期間の内に規範を参照する仕組みが不可欠です。無論、誰しもAIに支配される生活は望んでいません。それだから大枠では基本的に開発者は足並みを揃え開発を進めていきます。全体の行動が最適化された時に善意が形成されます。

ただし、規範の設定と運用で議論をしていく仕組みがほしいですね。そして、何よりAIに関わる指示を「具体的に行いたい」と個人的に思っています。人は意見を対立させるものですから経済学でゲーム理論が取り入れられたようにAIの議論でも「対立」の概念を取り入れてはいかがでしょうか。

具体的には個々のAIが、どのように判断するかをジャッジする仕組みを作って公平な土俵で勝負させるのです。鞍点が議論の中で出てくるような議論が出来たらしいですね。対立する人々の間で満足が出来る妥協点を見つけていく事が解決へつながるでしょう。具体的に以下、AIにおける対話型の規範形成と運用の仕組みを構築するためのアイデアを示します。








規範の共同作成と修正:


開発者、専門家、一般ユーザーなど、異なるステークホルダー想定して、全てを巻き込んだ多様なグループを形成します。グループは、AIの規範や倫理に関するディスカッションを行い、共同で規範を作成・修正します。

ゲーム理論の導入:


AIの意思決定に関する議論では、ゲーム理論の原則を活用して異なる利益や視点を考慮に入れます。対立する立場がある場合、ゲーム理論を用いて最適な妥協点や解決策を見つける努力をします。

ジャッジメント・フレームワークの構築:


AIが判断を下す基準やプロセスに関する透明性を確保するためのジャッジメント・フレームワークを設計します。これにより、開発者やユーザーがAIの判断を理解し、必要に応じて議論の根拠を検証できるようになります。

デリバレーティブ・デモクラシー:


意思決定のプロセスを透明で民主的なものにするため、デリバレーティブ・デモクラシーの原則を導入します。グループ内の多様な意見を尊重し、意思決定において異なる立場を均等に考慮します。

検証と改善サイクル:


AIが規範を遵守しているかどうかを定期的に検証し、必要に応じて修正を行います。ユーザーフィードバックや新たな倫理的な課題に対応するため、継続的な改善サイクルを確立します。こうしたアプローチは、AIの規範に対する透明性と民主性を高め、議論や対立を解決するためのフレームワークを提供します。










〆最後に〆


以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。


nowkouji226@gmail.com


また、この記事はChatGPT社のOpenAI
の情報を参考として作成しています。

全体の纏め記事へ】


雑記の纏め記事に戻る

Python関係の関連記事


テックジムまとめ
メインサイトに戻る(リンク)
この記事へのコメント
コメントを書く

お名前:

メールアドレス:


ホームページアドレス:

コメント:

※ブログオーナーが承認したコメントのみ表示されます。

この記事へのトラックバックURL
https://fanblogs.jp/tb/12462408
※ブログオーナーが承認したトラックバックのみ表示されます。

この記事へのトラックバック
最新コメント
検索
×

この広告は30日以上新しい記事の更新がないブログに表示されております。