日本政府、AIの安全評価専門機関設立へ
日本政府は、「AIの安全性を評価する」専門機関、AI Security Instituteを来年1月に設置する計画を明らかにした。この専門機関は、AI開発や利用リスクに対する安全性の評価や指標を示し、国際連携を行うことを目指す。
専門機関は、経済産業省が管理する情報処理推進機構(Information-technology Promotion Agency)内に設置される。数十人規模のチームを想定し、複数の文科省職員や民間の専門家を集める方針だ。
さらに、AIの個人事業者(個人事業主、事業を行う自然人)や法人、団体向けのガイドラインを来年3月に公表する予定だ。
海外では既に、生成AIの開発企業などが安全性を評価する基準を定めたり、偽情報対策に有効な技術について調査や研究を行う機関が存在している。特に中国では、2030年に向けたAI戦略と管理に重点任務を定めている。
生成AIのリスク
2022年頃から、生成AIに関する議論が大きく増えてきた。生成型AIサービスでは、ユーザーがAIを簡単に利用して、様々な出力を得ることができる。これにより、AIをより身近な存在にすることが可能だ。
しかし、AIの出力が急速に広まることで、多くの権利侵害のリスクへの対応が不十分な場合や、AIが満たすべき規範が守られていない問題が指摘されている。
特に、情報漏洩、学習データによる著作権侵害、プライバシー侵害のリスクが高いようだ。
さらに、「ハルシネーション」と呼ばれる生成AIによる偽情報の流布により、混乱が生じる可能性がある。日々新しいサービスが開発され、その利用が拡大しているため、適切な対応策が急がれる。
【関連リンク】
・【速報】AIの安全性を評価する専門機関を来年1月設置へ 岸田総理が表明
https://news.yahoo.co.jp/articles/84f8fc9088146f08bcca261fcaadfdccfeb91f36
TEXT:PreBell編集部
PHOTO:iStock
この記事を気にいったらいいね!しよう
PreBellの最新の話題をお届けします。