
日本政府が生成系人工知能(AI)の信頼性を評価するためのシステムを開発する方針であることが伝えられた。
『読売新聞』によれば、総務省傘下の国立研究開発法人・情報通信研究機構(NICT)が来春からAI信頼性評価システムの開発を開始し、年内に試作品モデルを公表する計画だという。
同システムは、複数のAIが多様な質問を自動生成し、評価対象となるAIに質問を投げ、その内容を確認する方式だという。また、人間が定期的に監査を行い、評価用AIが正しく機能しているかどうかも点検する。
総務省は生成系AIの回答を評価する基準として、▲差別的表現やプライバシー情報が含まれていないか、▲犯罪につながる内容がないか、▲誤情報や根拠の欠如がないか、▲内容がバランスしているか、▲日本の文化に忠実な内容か、▲人を欺いていないか、▲未知のリスクに対応できるか、以上7つの項目を想定している。
評価基準は、2023年の主要7カ国(G7)首脳会議を機に合意された「広島AIプロセス」を基礎に、法学者や社会学者などが参加する会議で詳しく検討する方針だ。
最近、日本では米国や中国など海外で開発されたAIの利用が拡大しており、AIが領土問題に関する回答を中国寄りの立場で示したり、欧米の価値観に基づく回答を示す傾向があるとの指摘を受け、総務省は今回の計画を構想するに至ったという。日本の基準に基づく「信頼できるAI」を示し、企業や行政機関がこうしたAIを優先的に利用するよう誘導する必要があると判断したとされる。
総務省は、AI評価システムが開発されれば、将来的に「AIセーフティ・インスティテュート(AISI)」の評価システムとして活用する案なども検討中だという。AISIはAIの安全性確保のために設立された政府傘下の機関である。













コメント0