今のLLM環境
(先ず本稿は2024年7月29日の日経新聞の記事を起点に考えていきます)
新聞は有益!!
生成AIが思考に偏見を含んでいく筈だという私の視点から考察していきます。
AIのLLM(大規模言語モデル)は完全な学習モデルを期待できません。特定の団体が満足出来る程度に適切な文章を書きますが、別の視点からは違って見えます。
例えば欧米で作られているLLMがアジアでいつも評価されるか疑問です。
企業の対応例
日経での報道では富士通の取り組みを報じていました。米メタのLIama(ラマ)3やOpenAIのGPT-3を対象として分析するツールを公開したのです。
トピックとして男女平等、教育、気候変動、知力、健康を扱うようです。
記事を読んで面白いな、と思いました。私なら富士通の仕組みを使い「亭主元気で留守が良い」の「亭主」を「女房」や「子供」に置き換えて「留守」の部分を「空欄」にしてLLMの反応を見ます。
特定のフレーズに対する大規模言語モデル(LLM)の反応を調査することは、AIの偏見や傾向を理解するのに役立ちます。「亭主元気で留守が良い」のフレーズをさまざまな形で変更し、モデルがどのように反応するかを見ることで、以下の点を探ることができます。
実験の手順と考察
- フレーズの変更:
- 「亭主」を「女房」や「子供」に置き換える。
- 「留守」の部分を空欄にし、モデルがどのように補完するかを見る。
- 反応の分析:
- 生成されたテキストを分析し、性別による違いやステレオタイプの反映を確認する。
- フレーズの意味やニュアンスがどのように変わるかを評価する。
- 偏見の検出:
- 特定のパターンや偏見が繰り返し現れるかをチェックする。
- 教育、健康、知力、気候変動などの他のトピックについても同様の実験を行い、モデルの反応のバランスを確認する。
期待される成果
- 性別によるステレオタイプの発見:モデルが特定の性別に対してどのようなステレオタイプを持っているかを明らかにすることができます。
- ニュアンスの違い:同じフレーズの異なるバリエーションがどのように解釈されるかを理解することで、モデルの柔軟性や限界を把握できます。
- 改善のためのフィードバック:発見された偏見やバイアスを基に、AIシステムの改善策を提案することができます。
富士通のツールを使ってこのような実験を行うことで、AIの公平性や中立性を高めるための貴重なデータを得ることができます。興味深い結果が得られることでしょうし、それをブログで共有することも、読者にとって非常に価値のある情報となるでしょう。
例えば女性を過小評価
実際に上記のLLMに対して色々なプロンプトで質疑応答を繰り返してみると予想していた回答が得られないことがあるでしょう。例えば女性を過小評価した文章を返してきたりします。それはすなわち、AIが学んだ学習の効果でもあるのです。結果としてAIは偏見を避け得ません。
各界の対応例
こうしたAIに対しての懸念に対し、国際教育文化機関(ユネスコ)も公式に見解を出しています。日本が議長国を務めたG7サミットで国際的なルール作りに向けた「広島AIプロセス」が施行されました。またEUも2024年の5月に関連法案を成立させています。
ユネスコの見解
ユネスコは、AI技術の発展が社会に及ぼす影響について懸念を示し、以下の点を強調しています:
- 倫理的側面:AI技術が人権やプライバシーにどのように影響を及ぼすかを慎重に評価することの重要性。
- 公平性とインクルージョン:AI技術の開発と利用において、すべての人々が平等に恩恵を受けられるようにすること。
- 透明性:AIシステムの意思決定プロセスが明確で理解しやすいものであること。
広島AIプロセス
G7サミットで議論された「広島AIプロセス」は、国際的なAIルールの策定に向けた取り組みであり、以下の目的を持っています:
- 国際協力の強化:AI技術の規制に関する国際的な協力を強化し、共通の基準を設けること。
- リスク管理:AI技術のリスクを適切に管理し、安全な利用を促進すること。
- 技術革新の支援:AI技術の健全な発展を支援し、社会的利益を最大化すること。
EUの関連法案
EUが2024年5月に成立させた関連法案は、AI技術の開発と利用に関する厳格な規制を含んでいます。この法案は以下の点に焦点を当てています:
- リスクベースのアプローチ:AIシステムのリスクレベルに応じた規制を設け、高リスクシステムにはより厳しい規制を適用すること。
具体的に、1.許容できないリスク、2.ハイリスク、3.特定の透明性が必要なリスク、4.最小リスク の4段階に分けてリスクベースを設定しています。(参考URL;PWCによる分析) - 透明性と説明責任:AIシステムの透明性を確保し、利用者がシステムの意思決定プロセスを理解できるようにすること。
- 安全性とプライバシーの保護:AIシステムが安全であり、個人のプライバシーを保護することを確保すること。
これらの取り組みは、AI技術の健全な発展とその安全な利用を確保するための重要なステップであり、国際社会全体で協力して取り組むべき課題です。
こうした世界の動きには個人的に関心を持っていますので
後日、継続的に深堀していきます。
個別に深掘りしていきたいと思います!!
〆最後に〆
以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。
nowkouji226@gmail.com
【全体の纏め記事へ】
コメント