アーカイブ

カテゴリ

その他

生成AIのこと

はじめに

生成AI(Artificial Intelligence人工知能)を使った会話型コンピューターChatGPT。
質問に答える・文章を作成する・アイデアを提案できる、という夢のような道具として注目を集めています。
先週その新しいモデルGPT-4o(英語版)が発表され、人の表情を読取り、まるで人間相手のような会話ができるとまたまた評判になっています。
ただしChatGPTやその他の生成AIツールは、使用に際し「間違った情報や不正確な回答をする場合がある」と注意書きがあります。
どういうことなのか「生成AIの正体」という番組を見たので、初めて知ったことを簡単にお伝えします。

AIの作成過程

生成AIは大量のデータをAIに学習させることで作成されます。
インターネット上には沢山のデータがあるのだから、そこから引っ張ってくればと考えがちですが、インターネットの世界は、偏見や固定概念に結びつくことも多く、有害なものもあります。
学習させる元データが、文献や論文等のアカデミックな質の高いものか、SNS等の世俗的なものかで、AIの出来が変わってくることになります。

またデータを分類するために、不特定多数のユーザーによって投稿されたインターネット上のコンテンツ(書込み、画像、動画)を監視する仕事が必要です。
他人への誹謗中傷や名誉棄損、アダルト・暴力・虐待殺害映像など、悪意ある内容やフェイク画像を削除する労働者は、毎日見るに堪えない映像に接し続けることで精神を病み、時には自殺者も出ると伝えていました。
しかしながら、雇う企業にとっては従業員のメンタルヘルスより作業効率が大切です。
利益追求を目的とする巨大企業に、倫理的管理を依頼するという、矛盾することを私たちは行っているのです。

AIのような統計に基づくシステムを通して私たちが向かっているのは、平均値を理想とし一人一人の個性は失われてゆく世界です。
しかも数年後には、AIに学習させる教材は、人が作ったものは使い尽くされて無くなり、AIが作った正確さに欠けるデータが使われる可能性は十分にある、という笑えない話でした。

おわりに

データ分類をする労働者は、内戦の続くシリアやアフリカ・東南アジアなど人件費を徹底的に抑えられる場所で雇用されております。
倫理観を問われそうな労働環境に、人の手に負えなくなりそうなAIは、現状、課題だらけです。
それでも利便性は享受したい。
仕組みを知った上で、安全に使用が出来たらと思います。