イタリアで一時使用禁止になった「ChatGPT」(ZUMA Press/アフロ)
イタリアで一時使用禁止になった「ChatGPT」(ZUMA Press/アフロ)

 ネット上にある膨大なデータを基に学習するChatGPT(チャットGPT)などのAI。さまざまな作業を効率化するメリットがある一方で、プライバシーや企業情報の漏洩、雇用の喪失などを懸念する声が上がっている。そして、サイバー攻撃など犯罪に悪用される危険性も指摘されている。私たちはこのようなリスクに、どう向き合えばいいのだろうか。(桜美林大学教授 平和博)

【表】ChatGPTに聞いてみた「将来なくなる仕事」はこちら

<<前編:社員が機密情報をChatGPTに入力、上司の知らぬ間に漏洩も 生成AIの安全対策は可能?>>より続く

*  *  *

■犯罪に悪用されないか

 チャットGPTは、その悪用のリスクも指摘されてきた。ユーロポール(欧州刑事警察機構)は3月27日付で公表した報告書で、その具体的な事例を明らかにしている。

「大規模言語モデルによって、フィッシングやオンライン詐欺は、より迅速に、ずっと本物らしく、そして極めて大規模に作成できるようになった」

 詐欺行為やサイバー攻撃では、標的に対して企業や他人になりすましたメールを送付し、それを足がかりにすることが多い。従来なら人の手で作成していたそのような文面も、チャットGPTなら、即座に、より自然に、何件でも、さらにはさまざまな言語で、作成することができる。
「これらの犯罪行為に加え、チャットGPTの機能は、テロリズム、プロパガンダ、偽情報の分野で多くの潜在的な悪用ケースに適している」

 チャットGPTを開発する米企業オープンAIも安全対策を講じているが、それらの回避策も存在するという。さらに自然言語だけではなく、サイバー犯罪に使用できるプログラムの作成も可能だという。その機能は、専門知識のない犯罪者の参入のハードルを下げる一方で、高度なサイバー犯罪の手口をさらに巧妙なものにすることもできるとしている。

 サイバー犯罪対策とフェイクニュース対策にも、進化が求められている。

■「社会と人類へのリスク」

「猛烈なスピードで(AI)開発が進むのとは対照的に、ガバナンスのための対策はおおむね動きは鈍く慎重姿勢だ。より強力なAIシステムの開発を一時停止することは、ガバナンスの対策がこの分野の急速な進化に追いつくための、重要な機会になる」

次のページ
社会と人類をおびやかす?AI開発