プライバシー侵害、企業秘密漏洩、雇用喪失、サイバー犯罪、そして制御不能な進化。米企業オープンAIが開発した対話型AI(人工知能)「ChatGPT(チャットGPT)」には、備えるべき大きなリスクがある――そんな指摘が世界で相次いでいる。チャットGPTなどのAIは、ネット上の大量のデータやユーザーの利用データを基に学習している。そこには個人データや企業秘密も含まれる。だが、その対策と効果には、疑問の声が上がる。チャットGPTは、人間的で自然な会話や文章、さらにプログラムも作成し、さまざまな作業を効率化できる。それは、職場でのリストラやサイバー犯罪のリスクとも裏腹の関係だ。そして何より、急速なAIの進化は、人間が制御できなくなることへの不安をかき立てる。チャットGPTのリスクに向き合っていく。そのために、備えておくべきこととは?(桜美林大学教授 平和博)
* * *
■プライバシー侵害を懸念
「欧州データ保護会議(EDPB)メンバーは、イタリアの個人データ保護庁がオープンAIに対して行った、チャットGPTサービスに関する先日の強制措置について議論した。EDPBは、今後想定されるデータ保護当局による強制措置について、協力と情報交換を促進するため、専用のタスクフォースを立ち上げることを決定した」
欧州連合(EU)のデータ保護政策を統括するEDPBは4月13日付のプレスリリースで、そう述べている。
イタリアの個人データ保護庁は3月31日に、チャットGPTを開発しているオープンAIに対して、イタリアのユーザーのデータ処理を直ちに一時停止するよう命じ、チャットGPTへの調査開始を発表していた。
命令の根拠としたのは、2018年からEUで施行されている、強力な個人データ保護法、一般データ保護規則(GDPR)だ。EDPBの動きは、この問題について、イタリアだけでなくEU全体で検討を進める、と表明したものだ。
イタリアの個人データ保護庁は、オープンAIへの一時停止命令について、プレスリリースでこう説明していた。