リスクを避けるには、短期的な利益ばかりではなく、長期的に見る必要がある。また、「個人情報の保護」「安心安全の問題」「透明性の確保」に配慮して技術の社会実装を進めることが、AIの有益な活用につながる。ただし、この3つはお互いに対立するので、どこかで妥協が必要になる。これを私は「倫理のトリレンマ」と呼んでいる。

――その倫理とは?

 具体的には、技術の設計段階から考慮する必要がある。セキュリテイの確保、個人情報の保護のために、どのようにシステムを設計し、運用し、動作を保証するのかということだ。

 例えば、個人情報保護では、あるサービスのためにスマホなどの端末で個人情報を収集するが、企業の中央サーバーへ送らずに、利用者の端末などその場でデータ処理をするという方法もある。

 私が関わっている研究開発で「インテリジェントTV」がある。視聴者が見た番組情報を元に、番組をリコメンドしてくれる。このときに、視聴者の番組情報を中央サーバーに送ると、企業は視聴者それぞれに合ったターゲット広告を送ることができる。一方、中央サーバーに送らずに視聴者のテレビの中でデータ処理をしてリコメンドをすれば、企業は視聴者のデータをもとに広告を出せない。ただこのとき、企業が広告収入を得られないと、視聴者がテレビを見るのにお金を払わないといけなくなるかもしれない。

「個人情報の保護」「安心安全の問題」「透明性の確保」に配慮しながら製品開発を進める専門職が産業界にできてもいいくらい重要なものだ。

――AI技術の開発について、日本は総務省が「開発ガイドライン」の作成を進めている。国による規制や規準作りをどう見るか。

 国が技術開発を規制するのは難しい。特に欧米では、技術の規制や規準は競争を阻害すると見る。むしろもっとオープンな開発にするべきだ。規制ではなく、良いものに対して認証をする方が良い。消費者が安心して買えるような認証制度を作るのがよいと考えている。(本誌・長倉克枝)

AERAオンライン限定記事