おはようございます!マネジメントオフィスいまむらの今村敦剛です。
AIリスク・規制の超基礎というテーマで連載します。AIは私たちの生活を便利にしてくれる一方で、様々なリスクも抱えています。連載初回の今回は、AIに伴うリスクとその具体例をお話します。
スポンサーリンク
動画でも解説しています(無料・登録不要)
おことわり
この記事の内容は、2025年1月時点の情報です。AIの世界は変化がめちゃめちゃ早いので、この情報はたぶんすぐに陳腐化します
AIを巡るトラブル事例
AIってすごく便利な技術ですよね。最近では生活のいろんな場面でAIが活躍していて、私たちを助けてくれることも多いです。でも、その一方で、AIの使い方次第では、ちょっと困ったことになる場合もあるんです。今回は、いくつか具体的な事例を見てみましょう。
まず、アメリカのLinkedInというビジネス向けのSNSでは、AIを使ったジョブマッチングシステムが2018年に導入されました。でも、そのAIが、男性を女性よりも優先しておすすめしていたことがわかり、問題になったんです。「え、なんでそんなことに?」と思うかもしれませんが、これは人がわざとそうプログラムしたわけではなくて、AIが過去のデータを学習して、無意識に偏りを持ってしまったんですね。
次に、イギリスのClearview AIという顔認識技術の会社の話です。この会社はインターネット上から大量の顔写真を集めてデータベースを作り、それを使って「この写真の人を探したい」というニーズに応えていました。でも、これがプライバシーの観点から大問題に。イギリス政府はこの会社に750万ポンドもの罰金を科したうえ、イギリスに住んでいる人たちのデータを削除するよう命じたんです。「便利だけど怖い」という典型的な例ですよね。
さらに、イタリアではAIを使ったサービスとして有名なChatGPTが、一時的に使用禁止になりました。理由は、EUの法律であるGDPR、つまり個人情報保護のルールに違反している可能性があるから。そして、未成年に対する不適切な回答が懸念されたんです。結果的にはシステム改善を行って、使用禁止は解除されましたが、「AIがどう人に影響するのか?」を問われた出来事でした。
最後に日本の話です。就職情報サイトのリクナビでは、2019年に学生の内定辞退率をAIで予測して、そのデータを企業に売っていたことが問題になりました。AIが学生のWeb閲覧履歴を分析して、「この人は内定を辞退する可能性が高い」と予測して企業に伝えていたんです。でもこれが「学生にとって不利益になるのでは?」と批判され、最終的にサービスが停止されました。この件は個人情報保護法にも違反している可能性があるとして、個人情報保護委員会から指導も受けています。
こうして見ると、AIって便利な反面、ちゃんとしたルールや倫理的な配慮がないと大きな問題になることがよくわかりますね。
AIをとりまくリスク
このようにいろいろなトラブルがあるのですが、AIを取り巻くリスクには、どういうものがあるのかを整理してみましょう。
まず1つ目は「仕事の喪失」です。AIによる自動化が進むと、これまで人がやっていた仕事がAIやロボットに取って代わられる可能性があります。例えば、2015年に野村総研が発表した研究によると、日本の労働人口の約半分の仕事が2025年~2035年の間にAIに代替されると予測されました。2015年の予測なので、本当にそうなるのかは定かではありませんが、最近では、生成AIが文筆家やイラストレーターといったクリエイティブ職に影響を与え始めているとも言われています。ただ、日本は少子高齢化で人手不足が深刻なので、この話題、あまり注目されないんですよね。でも、海外では「仕事がなくなるかも」という懸念が強く議論されています。
2つ目は「差別や不公平を助長するリスク」です。AIが学ぶデータに偏りがあると、判断にもその偏りが反映されてしまいます。例えば、先程のLinkedInの事例では、男性を優先的に採用するという偏りが報告されていましたよね。これ、人がわざとそう設定したわけではなく、AIが学習したデータに偏りがあったからでしたよね。こういう不公平が起こり得るというリスクですね。
3つ目は「プライバシーや権利の侵害」です。AIは学習や予測を行うために膨大なデータを集めますが、その過程で私たちのプライバシーが侵害される可能性があります。例えば、街中やお店に設置されたAI搭載の監視カメラが、私たちの顔や行動を勝手に記録して、それを元に広告を表示したらどう思いますか?ちょっと気味が悪いですよね。また、AIが著作物を勝手に学習して、それを元に似たものを生成すると、元の作者の権利が侵害される可能性もあります。
最後は「透明性のない判断」です。AI、特にディープラーニングを活用するシステムは、どうしてその結果になったのか説明が難しい場合があります。例えば、銀行の融資判断をするAIが「融資は不可」と判断したとき、その理由を銀行側が明確に説明できなかったらどうでしょうか?利用者は納得できませんよね。このように、AIを重要な意思決定に使うときには、その判断の理由を説明できないというのは、リスクになるわけですね。