AIと善意【y=a/(2040-x)の脅威_ヒントン氏とサツキバー氏の対談】

未分類

昨今、AIは社会での合意形成に使えると考えられ、また汎用的に様々な作業をこなせるだろうと考えられ始めています。(いわゆるAGI)本稿ではそうしたAIの進化がもたらすものに対して「人類がどう接して行けば良いか」考えていく一つの指針です。話はカナダの片隅での会話から始まります。

ヒントンをサツキバー訪問

(2024/11/1‗改訂)本記事は日経新聞の2024年3月の記事を起点に記事を始めます。

皆さんが大きな関心を持っていているAIの動向についての話題です!!

始まりはカナダのトロント大学教授ジェフリー・ヒントン氏と教え子のイリヤ・サツキバー氏の会食です。AIについて恐ろしい事を語ります。以下にヒントン氏のy=a/(2040-x)という考え方(数式)が出てきます。ただし、次の点を念頭に置くことは有益かと思えます。

①ヒントン氏はAIの研究者であって経済学専門ではない。
ヒントン氏の意見が民意を反映しているかという論拠が弱い。

②AIが作るモデルで「現実と相関がとれているか」保証が出来ない
(現時点での話を考えてみて下さい。)

記事内容に対して不必要に不安を感じる必要はないです。
加えて、関連商材に安易な費用をかける事は無いです。(ネットは怖いよ~(笑))理性的に考えて下さい。筆者はAIは根本的に学ばないと全容が分からない筈だというスタンスです。学ぶ過程で確実に関連スキルも伸びます。理解が深くなります。逐一、内容を確認、討議していきましょう。

私も学びます。

昼食を食べy=a/(2040-x)

ヒントン氏とサツキバー氏の話題にあがったのはy=a/(2040-x)という式です!!ここでのyは国民総生産(GNP)でx西暦で表した年数です。aは正の定数。

少し数学が分かる高校生は式が発散していく様子が分かるでしょう。

サツキバー氏の名は先日のOpenAI社での騒動において、更に有名となりました。その際の解任劇で問題視されていた一つが、AIの進化の方向性であるという憶測も流れています!!

特異点の脅威

何がAIネタで脅威かと言えば、AIの能力が無限に高いことです。サツキバー氏が恩師との会話で問題視した上記の数式が発散していく様子が驚異です。

どう怖いかと言えばAIの能力が無限に高まり人のする仕事が無くなること等です!!

懸念は、失業の増加や労働市場の変化、経済格差の拡大などが挙げられます。他の懸念もありますが、それらに対しては別項で再考察していますので割愛致します。

労働市場の変化:

AIによって一部の仕事が自動化されると、新しい職種やスキルが求められるようになります。しかし、既存の労働力が新しい要件に適応することが難しい場合、適切なトレーニングや教育の提供が必要です。

人間らしいスキルの価値:

一方で、AIがルーチンな仕事を担当する一方で、人間の特有のスキルやクリエイティビティが重要となるかもしれません。人間が持つ感情や倫理的な判断力、創造性などが、AIでは難しい領域です。

これらの課題に対処するためには、教育・訓練の充実、新しい雇用機会の創出、社会的な支援制度の見直しなど、包括的な対策が必要です。AIの発展を活かしながら、社会全体が持続可能かつ公正な形で変化していくことが求められます。

望ましい進化への私論

以上の議論でAIの進化を考えてみます。大事に考えるのは次の2つのポイントです。すなわち、

①AIは今後も手法として大規模モデルのネットワークを使い開発されていく。

②ネットワークで学習するモデルに思想を含め判断基準をもたせる。
つまり学習前にAIに対して規範を与える。

うまく言語化出来ているか自信がありませんが、言葉を続けます。モデル内で一定の期間の内に規範を参照する仕組みが不可欠です。無論、誰しもAIに支配される生活は望んでいません。それだから大枠では基本的に開発者は足並みを揃え開発を進めていきます。全体の行動が最適化された時に善意が形成されます。

ただし、規範の設定と運用で議論をしていく仕組みがほしいですね。そして、何よりAIに関わる指示を「具体的に行いたい」と個人的に思っています。人は意見を対立させるものですから経済学でゲーム理論が取り入れられたようにAIの議論でも「対立」の概念を取り入れてはいかがでしょうか。

具体的には個々のAIが、どのように判断するかをジャッジする仕組みを作って公平な土俵で勝負させるのです。鞍点が議論の中で出てくるような議論が出来たらしいですね。対立する人々の間で満足が出来る妥協点を見つけていく事が解決へつながるでしょう。具体的に以下、AIにおける対話型の規範形成と運用の仕組みを構築するためのアイデアを示します。

規範の共同作成と修正:

開発者、専門家、一般ユーザーなど、異なるステークホルダー想定して、全てを巻き込んだ多様なグループを形成します。グループは、AIの規範や倫理に関するディスカッションを行い、共同で規範を作成・修正します。

ゲーム理論の導入:

AIの意思決定に関する議論では、ゲーム理論の原則を活用して異なる利益や視点を考慮に入れます。対立する立場がある場合、ゲーム理論を用いて最適な妥協点や解決策を見つける努力をします。例えば将棋界におけるAIとの勝負の歴史は大いに参考となるはずです。

ジャッジメント・フレームワークの構築:

AIが判断を下す基準やプロセスに関する透明性を確保するためのジャッジメント・フレームワークを設計します。これにより、開発者やユーザーがAIの判断を理解し、必要に応じて議論の根拠を検証できるようになります。

デリバレーティブ・デモクラシー:

意思決定のプロセスを透明で民主的なものにするため、デリバレーティブ・デモクラシーの原則を導入します。グループ内の多様な意見を尊重し、意思決定において異なる立場を均等に考慮します。

検証と改善サイクル:

AIが規範を遵守しているかどうかを定期的に検証し、必要に応じて修正を行います。ユーザーフィードバックや新たな倫理的な課題に対応するため、継続的な改善サイクルを確立します。こうしたアプローチは、AIの規範に対する透明性と民主性を高め、議論や対立を解決するためのフレームワークを提供します。

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

また、この記事はChatGPT社のOpenAI
の情報を参考として作成しています。

全体の纏め記事へ】

雑記の纏め記事に戻る

Python学習での情報まとめ

テックジムまとめ

コメント

タイトルとURLをコピーしました