プライバシーの侵害、企業秘密の漏洩、雇用の喪失、サイバー犯罪、そして制御不能な進化への懸念。ここまで見てきたチャットGPTの5大リスクに、どう備えればいいのか。
プライバシー侵害や企業秘密漏洩に関して、ユーザーの立場では、開発元であるオープンAIの対応も見極めながら、チャットGPTに入力しても支障のないデータかどうかを意識しながら使う必要はあるだろう。
そして仕事への影響については、どの部分がどれだけ効率化されるのか、それによって作業を見直し、生産性をどれだけ上げていくことができるのかを考える必要もある。一人ひとりが自分のスキルを改めて見直すきっかけにもなるだろう。
サイバー攻撃やフェイクニュース増大のリスクは、個々のユーザーにとっても、一層のセキュリティー意識とリテラシーが求められることになる。
AIが制御不能となるリスクに対しては、加速する一方の開発レースや熱狂に、社会として一定の冷静さを保つことも必要だ。
そして、AIにできることと人間にしかできないことの整理が、これまでにも増して重要になってくる。
「人間の生活には、コンピューターには理解できない側面がある。不可能なのだ。人間であることが必要だ。愛と孤独は、人間の生物としての特性と非常に深く関わっている。コンピューターは、原理的にそのようなことは理解できない」
1960年代半ばに、チャットボットの原型となる対話型のコンピュータープログラム「イライザ」を開発したMIT教授、故ジョセフ・ワイゼンバウム氏は、1977年5月8日付のニューヨーク・タイムズの記事で、こう述べている。
人間らしさ、人間への理解は、チャットGPT時代への大事な備えになるだろう。