田原総一朗(撮影・門間新弥)

田原:人間には意欲があるがAIにはない。この意欲を強みに、人間がAIをいかにうまく使うかが大事になってくるというわけですね。ところで、ChatGPTに危険性があるとすればどんなものがありますか。

宮田:現時点では正確性に疑問符が付きます。ChatGPTは6カ月前のデータを元に学習した知識で対話するため、時事的な問題は答えられない。大化の改新の説明など歴史的なことは答えられても、先日のG7にどんな課題があったのか、といった問いには対応できないのです。

田原:問題は正確性だけですか。

宮田:価値判断にも課題があります。たとえば、この先ChatGPTを使い始めるであろう人事採用。どういう人が有能か、どんな人を採用すれば会社が発展するかといいう問いに対して、ChatGPTはある意味“無邪気”に答えを出します。そこに男女差別や人種差別が内包されている可能性もあるわけです。

田原:AIが差別を肯定するということ?

宮田:そもそも人間自体が大なり小なり歪んでいて、考え方も千差万別です。インターネット空間も同様で、差別などの曲がった知識がたくさんある。そうした知識をAIが大量に学習する中で、歪みが含まれた答えが出てくる場合もあります。我々がAIに依存すればするほど、曲がっているものを認識しづらくなる危険性はあると思います。

田原:まだまだ万能ではないと。

■SNSが生んだ人と人との分断

宮田:ChatGPTに限らず、AIは現時点では英語文化の影響が強い。画像生成AIにおいても、日本人の印象を問うと、「和服姿でつり目」といった欧米の偏った日本人像が示されるなど、学習元が歪んでいるケースが多いのです。信頼しすぎず、疑いながらいかに付き合うかが大事です。

田原:便利に見えるデジタル革命にも功罪があるということですね。

宮田:10年ほど前に、アラブ世界で大規模な反政府デモが連続する「アラブの春」がありました。抗議の声をあげる人々は、ITによって人々がつながり、正しい知識さえ伝播できれば世界は良くなるはずだと夢見ていた。しかし、現実はそう単純ではありませんでした。

次のページ