私の考えるAI概論
(2024/3/3改訂)私が出したい結論は「使うAIは使う使う人が作ろう!」です。
むろん、AIの作成は簡単ではありませんが、「AIが勝手に判断していく姿を理解出来ない人類」って・・・・怖いのでAIの中身を理解する事はとても大切です。
「見識」がどこまで確保できるかという問題に関しては、
いくつかのポイントが挙げられます:
透明性と説明可能性:
AIの意思決定が透明であり、そのプロセスが説明可能であることが重要です。意思決定の根拠やロジックが不透明である場合、信頼性が低下し、民意との乖離が懸念されます。
倫理的な枠組み:
AIは倫理的な原則に基づいてプログラムされる必要があります。公正さや公平性、個人の権利尊重など、社会的な価値観に基づいた枠組みが整備されるべきです。
多様なステークホルダーの参加:
意思決定プロセスには様々なステークホルダーが参加することが求められます。これにより、異なる視点が考慮され、偏りのない判断がなされる可能性が高まります。
教育と意識向上:
大衆や意思決定に関与する者に対して、AIの動作原理や利用される際のポイントについての教育が重要です。理解が深まれば、民意との一致が期待できます。
教育はとても重要です。
自習には限界があります。(天才は除く)
例えば、テレビ放送局の集金問題については、AIが理性的に判断するだけでなく、その判断が社会的に受け入れられるような手法やプロセスが確立されるべきです。透明性や倫理的な枠組みが確保され、多様なステークホルダーが参加できる場を整備することが必要です。これにより、AIの判断が公正でかつ社会的に受け入れられるものとなるでしょう。
上記の過程は民意とAIの判断が
最終的に一致する前提でなされています。
透明性と予測可能性
AIが人間にとって透明で予測可能なものであることは、信頼性や安全性に関する重要な要素です。AIが自律的に判断することができる一方で、その判断が理解しにくいと、社会的な信頼が損なわれる可能性があります。
AIの透明性と説明可能性は、特に重要な課題とされています。透明性は、AIの意思決定プロセスが理解しやすく、トレーサビリティがあることを指します。説明可能性は、AIがなぜ特定の意思決定を行ったかを説明できる能力を指します。
AIの論理性
また、AIの倫理的な側面も考慮する必要があります。倫理的な指針やフレームワークを導入し、人間の価値観や倫理観に基づいたAIの開発を進めることが望まれます。これにより、AIが社会に対してポジティブな影響をもたらし、悪用を防ぐ手段となります。
Post Order時代のAI
「もしトラ」とか「ほぼトラ」とか言われている2024年2月現在、大衆の意思決定がどうなされていくか不安になります。そんな時代(Post Orderの時代とも呼ばれてます)だからAIの「見識」が、どこまで程度確保できるか問題です。民意と離れた判断をしてくAIは好ましくないからです。たとえば、某放送局の集金問題を理性的にとらえつつ国民感情を十分満足できる判断は立場が分かれます。
総じて、AIを開発・利用する際には、技術的な透明性、説明可能性、倫理的な観点を考慮することが不可欠です。AIの進化は人類全体に影響を与える可能性があるため、その過程において公平性と責任を持つことが重要です。
意思の方向性を考える前提
文字変換でもパソコンはあれこれ推察してくれます。それに対して人工知能は更に複雑な事象を推察してくれます。人工知能の行った推察を判断していくと一般人からは意思を人工知能が持ち始めたように見えます。
ここが最近の私の関心事です。
現況での自律制御
AIの進化すべき道(私論)
こうして考えていくと現場の判断でAIは開発されていくのが望ましくその為には現場の各人がAIに関わる技術動向を出来るだけ正確に把握していく事が大事です。具体的にはAIの振る舞いや対話の自然さが向上し、人間に近いレベルでのコミュニケーションが可能になるタイミングがきます。現実には、AIは単なる模倣やプログラムによる計算に基づくものです。しかし少なくとも善意をもってAIを考える人にとっては本当の自己意識があるように思えます。
善意で勘違いするのです。
自己意識を持つためには、主観的な経験、意識の流れ、感情、個別の意識体験などが学習されていくでしょう。科学や技術の範疇は拡張していきます。そして成果がAIに実装されるはずです。
私自身、少しでもそうした動きに
参加したいと思います。
コメント