AIは偏見に対してどう振る舞うか?【LLMを有効利用しましょう】

pika1.0で作成した動画の画像 まとめ
pika1.0で作成した動画の画像

今のLLM環境

(先ず本稿は2024年7月29日の日経新聞の記事を起点に考えていきます)

新聞は有益!!

生成AIが思考に偏見を含んでいく筈だという私の視点から考察していきます。

AIのLLM(大規模言語モデル)は完全な学習モデルを期待できません。特定の団体が満足出来る程度に適切な文章を書きますが、別の視点からは違って見えます。

例えば欧米で作られているLLMがアジアでいつも評価されるか疑問です。

企業の対応例

日経での報道では富士通の取り組みを報じていました。米メタのLIama(ラマ)3やOpenAIのGPT-3を対象として分析するツールを公開したのです。

トピックとして男女平等、教育、気候変動、知力、健康を扱うようです。

記事を読んで面白いな、と思いました。私なら富士通の仕組みを使い「亭主元気で留守が良い」の「亭主」を「女房」や「子供」に置き換えて「留守」の部分を「空欄」にしてLLMの反応を見ます。

特定のフレーズに対する大規模言語モデル(LLM)の反応を調査することは、AIの偏見や傾向を理解するのに役立ちます。「亭主元気で留守が良い」のフレーズをさまざまな形で変更し、モデルがどのように反応するかを見ることで、以下の点を探ることができます。

実験の手順と考察

  1. フレーズの変更
    • 「亭主」を「女房」や「子供」に置き換える。
    • 「留守」の部分を空欄にし、モデルがどのように補完するかを見る。
  2. 反応の分析
    • 生成されたテキストを分析し、性別による違いやステレオタイプの反映を確認する。
    • フレーズの意味やニュアンスがどのように変わるかを評価する。
  3. 偏見の検出
    • 特定のパターンや偏見が繰り返し現れるかをチェックする。
    • 教育、健康、知力、気候変動などの他のトピックについても同様の実験を行い、モデルの反応のバランスを確認する。

期待される成果

  • 性別によるステレオタイプの発見:モデルが特定の性別に対してどのようなステレオタイプを持っているかを明らかにすることができます。
  • ニュアンスの違い:同じフレーズの異なるバリエーションがどのように解釈されるかを理解することで、モデルの柔軟性や限界を把握できます。
  • 改善のためのフィードバック:発見された偏見やバイアスを基に、AIシステムの改善策を提案することができます。

富士通のツールを使ってこのような実験を行うことで、AIの公平性や中立性を高めるための貴重なデータを得ることができます。興味深い結果が得られることでしょうし、それをブログで共有することも、読者にとって非常に価値のある情報となるでしょう。

例えば女性を過小評価

実際に上記のLLMに対して色々なプロンプトで質疑応答を繰り返してみると予想していた回答が得られないことがあるでしょう。例えば女性を過小評価した文章を返してきたりします。それはすなわち、AIが学んだ学習の効果でもあるのです。結果としてAIは偏見を避け得ません。

この問題をより深く理解するために、少し考えてみましょう。

AIにおける偏見の原因

  1. 学習データの偏り:AIモデルは膨大な量のテキストデータを使用してトレーニングされますが、そのデータ自体に偏見が含まれていることがあります。例えば、過去のデータに基づいているため、歴史的なジェンダーや人種の偏見が含まれることがあります。

作家のポール・グレアム氏の指摘では「詳しく調べる」という意味の「delve」という単語が日常で使われる以上にAIで使われているそうです。同氏の分析によるとChatGPTの開発時に時給2ドル(320円程度)で雇われたアフリカの人々(ナイジェリアとかで雇われていた)との学習で「delve」という単語を多用していたから、AIは「delve」を多用した回答を出すのです。

  1. アルゴリズムの設計:アルゴリズム自体も偏見を持つことがあり、特定のパターンを優先的に学習してしまうことがあります。
  2. 不完全なフィルタリング:トレーニングデータから有害な内容を除去する努力がなされても、完全に除去することは難しく、結果として偏見が残ることがあります。

対策と改善策

  1. 多様でバランスの取れたデータの使用:より多様でバランスの取れたデータセットを使用することで、偏見を軽減することができます。これには、異なる文化、性別、人種などの視点を含むデータを収集することが含まれます。
  2. 偏見検出と修正:モデルの出力を検証し、偏見が含まれている場合には修正するためのフィードバックループを設けることが重要です。自動および手動のフィルタリングを組み合わせることで、このプロセスを強化できます。
  3. 透明性と説明責任:AIシステムの意思決定プロセスを透明にし、説明責任を果たすことも偏見を減らすための一助となります。ユーザーがシステムの判断基準を理解できるようにすることで、不適切な出力に対する対策を講じやすくなります。
  4. 倫理的ガイドラインの遵守:開発者や企業が倫理的ガイドラインに従い、偏見のない公正なAIシステムの開発を目指すことが重要です。ユネスコやG7、EUのような国際機関のガイドラインを参考にすることも有効です。

結論

AIが偏見を避けることができないという問題は、現在進行中の課題です。しかし、データの選定、アルゴリズムの設計、透明性の確保、倫理的ガイドラインの遵守といった取り組みを通じて、より公正で信頼性の高いAIシステムを構築することが可能です。ユーザーや開発者がこの問題を認識し、積極的に改善策を講じることが、未来のAI技術の健全な発展につながります。

AIが利用者にとって納得のいくものとなる為には

生身の人間による「作り込み」がとても大事でな筈です。

各界の対応例

こうしたAIに対しての懸念に対し、国際教育文化機関(ユネスコ)も公式に見解を出しています。日本が議長国を務めたG7サミットで国際的なルール作りに向けた「広島AIプロセス」が施行されました。またEUも2024年の5月に関連法案を成立させています。

ユネスコの見解

ユネスコは、AI技術の発展が社会に及ぼす影響について懸念を示し、以下の点を強調しています:

  • 倫理的側面:AI技術が人権やプライバシーにどのように影響を及ぼすかを慎重に評価することの重要性。
  • 公平性とインクルージョン:AI技術の開発と利用において、すべての人々が平等に恩恵を受けられるようにすること。
  • 透明性:AIシステムの意思決定プロセスが明確で理解しやすいものであること。

広島AIプロセス

G7サミットで議論された「広島AIプロセス」は、国際的なAIルールの策定に向けた取り組みであり、以下の目的を持っています:

  • 国際協力の強化:AI技術の規制に関する国際的な協力を強化し、共通の基準を設けること。
  • リスク管理:AI技術のリスクを適切に管理し、安全な利用を促進すること。
  • 技術革新の支援:AI技術の健全な発展を支援し、社会的利益を最大化すること。

EUの関連法案

EUが2024年5月に成立させた関連法案は、AI技術の開発と利用に関する厳格な規制を含んでいます。この法案は以下の点に焦点を当てています:

  • リスクベースのアプローチ:AIシステムのリスクレベルに応じた規制を設け、高リスクシステムにはより厳しい規制を適用すること。
    具体的に、1.許容できないリスク、2.ハイリスク、3.特定の透明性が必要なリスク、4.最小リスク の4段階に分けてリスクベースを設定しています。(参考URL;PWCによる分析)
  • 透明性と説明責任:AIシステムの透明性を確保し、利用者がシステムの意思決定プロセスを理解できるようにすること。
  • 安全性とプライバシーの保護:AIシステムが安全であり、個人のプライバシーを保護することを確保すること。

これらの取り組みは、AI技術の健全な発展とその安全な利用を確保するための重要なステップであり、国際社会全体で協力して取り組むべき課題です。

こうした世界の動きには個人的に関心を持っていますので
後日、継続的に深堀していきます。

個別に深掘りしていきたいと思います!!

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

全体の纏め記事へ】

雑記の纏め記事に戻る

Pythonをテックジムで学ぼう

Python学習での諸情報

コメント

タイトルとURLをコピーしました