おいこらGoogle Photos、友達ゴリラじゃないっつーねん。
ヤフーFlickrが5月に黒人と白人を「猿」とタグ付けして騒ぎになりましたが、今度はGoogle PhotosのAIが黒人を「ゴリラ」と間違えてタグをつけ、グーグルエンジニアが平謝りする騒ぎがありました。
写真の男性は、ブルックリン在住コンピュータプログラマーJacky Alcinéさん(ハイチ系)。
上のツイートを拡散して2時間後、グーグルのソーシャルチーフアーキテクトのYonatan Zungerさんから「原因を調査したいので、アカウト内部の問題のデータを調べる許可もらえますか?」というツイートが飛んできて、当座のしのぎに検索に強力なフィルターをかけて出なくした模様です。
「白人の顔を『犬』、『アシカ』とタグ付けするバグもあって困っていた。機械学習は難しいね」とZungerさんは言ってます。ほんとだね。
こないだのニューラルネットワークが見る夢でもわかるように、全部推測ですもんね。「直すのは容易なことじゃないよ」「いくらディープニューラルネットを調教し直しても(膨大な時間がかかる)、この種のことが再発するリスクを排除できる保証はどこにもない」とコーネル大学のAIの専門家Bart Selman教授もFusionにコメントしてます。
凡人的には、まさか「黒人 ゴリラ」でタグ付けするネット差別民のクズな習性をAIがそのまま学んじまったんじゃ…と心配になりますが、Fusionが取材した専門家はみな、その可能性は低い、単にたまたまそう見えちゃった不幸な出来事ではないか、と答えていたそうです。
今回の件はグーグルがタグ外して、ツイ主が「サンキュー!」とツイして済みましたけど、仮にもっとひどいことをAIが無意識にしでかして本当につけちゃった場合、その責任の所在って…グーグルになるの?
この点についてワシントン大学のサイバー法の専門家Ryan Calo助教授は「今の法律の枠組みでは対処できない問題だ」とFusionからの取材に答えてます。なぜならグーグルを業務過失や名誉毀損で訴えるには、予見可能性を実証しなければならないから。
人混みに乱射したら人が死ぬ――これは予見できます。が、グーグルが果たしてこういう顔タグを予見できたのか?っていうと、これを実証するのは容易なことじゃないし、弁護士の費用もバカにならないのだそう。
でも将来的にはこの種の「犯罪」を扱う新しいカテゴリが法律にもできるかもしれないねってCalo助教は話してますよ。たとえば「過失プログラミング」とかなんとか、そういうのを設けて、コード書いたエンジニアに罰金(人間が直接関わるよりは少額)を課すなどの取組みが考えられそうだということです。か、過失プログラミング!
image by: @jackyalcine
source: Fusion, WSJ, NY Daily News
(satomi)