実はこのようにビッグデータから“個人の信用力”をスコアリングするサービスは中国では広く社会に浸透している。

 その代表格は、ネット通販会社アリババの決済サービス・アリペイの支払い履歴や交友関係などをもとにした「芝麻信用」だ。住居の賃貸や融資、企業の採用に影響があるのはもちろん、各所でデポジットが不要になったり、高得点者はシンガポールのビザが取りやすくなるなどメリットも多く、なんと最高人民法院(最高裁)も情報提供を行っているという。前出の手嶋さんは言う。

「中国のように日本でもスコアリングを根付かせたい。今後は様々な業界と連携してスコアのもとになるビッグデータの種類を増やし、金融以外のサービスを拡大させたいですね」

 すでに興味を示している企業も複数あるそうだ。

 一方で、異なる企業のAIが同じアルゴリズムを形成してAIに排除され続ける負のスパイラル「バーチャル・スラム」に陥る危険性もある。慶應義塾大学大学院法務研究科の山本龍彦教授は著書の中でこう警鐘を鳴らしている。

「アルゴリズム構成や使用データが共通していれば、(中略)あちらで排除された者がこちらでも排除されるという事態が起こりうる」「『おそろしい』のは、人事採用、融資、保険、教育といった、私たちの人生の重要な場面で、このようなセグメントに基づく確率的な評価が決定的な意味をもつこと、そして、私たちがその評価に反論できなくなること」(『おそろしいビッグデータ 超類型化AI社会のリスク』朝日新書から)

(編集部・竹下郁子)

AERA 2017年12月11日号より抜粋

[AERA最新号はこちら]