アマゾンとAI

 アマゾンは人工知能「アレクサ」とそれを搭載した「エコー」の販売促進を強力に進めている。言語認識についての研究が発達することは、言語入力をたやすくするという意味では好ましいものではあるが、いくつかの重要な問題をもたらすものだろう。ルンバがユーザーの家庭の情報をサーバに伝達しているとことが明らかにされたことがあるが、アレクサもまた私的な会話をサーバに伝達していたことがあるという。


 日経新聞によるとこの状況は次のようなものだ。「所有者の夫婦が会話の中で〈アレクサ〉と聞こえた声に反応してエコーが誤って起動し、会話の録音を開始。その後の会話の中の言葉を〈メッセージの送信〉のリクエストと勘違いした。アレクサはメッセージの送信先や、送信してよいかどうかをたずね返したが、背後の会話の中の言葉を、送信先の人の名前や送信許可と聞き間違え、誤送信してしまったという」(N:2018-5-25)。


 誤作動がうまく重なりすぎているような印象はあるが、アマゾンとしても個人の会話を収集することのリスクを負うことは避けたいだろうから、これは誤作動だと信じたいところである。


 気になるのは、家庭のうちにこのように反応する人工知能が存在することが、たんにプライバシーの問題だけでなく、もっと深刻な問題を引き起こしかねないということだ。人間は孤独になると対話の相手を求めるものだが、それが犬や猫などのペットではなく、記憶し、応答するAIであると、どうなるのか。アマゾンの開発者によると、「自殺やいじめについてAIに質問する人もいる。状況に応じどう返答すべきか、専門家などと連携しながら最適なものを見つける」(N:2018-9-23)という。


 むかし自殺の電話相談室のようなものがあった(今でもあるのだろう)。家庭のAIがそのような役割をはたし始めるとしたら、そのような役割を一つの民間企業だけに委ねておいてよいものだろうか。