昨年にファーウェイ社が、ウイグル人をAIで判別する通称「ウイグル人アラーム」を開発していたのではと話題になりました。当のファーウェイ社自身はこの開発の目的で、そんなことやるつもりはないと否定はしていますが。言うて中国の会社なので、まぁ鵜呑みはできないわけです。
ファーウェイ社は技術も高いものを持ってると思うし、コスト競争力もあるすぐれた会社です。ただ、こういったいわゆる倫理観に疑念を持ってしまうと、やはり使いたくはないと感じてしまいます。
おそらく今後もAIに関する倫理について、議論がいろいろされると思います。もちろん、開発者側は倫理に反するような使い方を意図して開発していない、というケースも多いと思います。開発者に加えて使い手も倫理観を持つ必要があると考えています。
AIといってもシステムですので、学習データに偏りがあれば、偏りのある判断を下してしまいます。どのようなデータを投入するのかは、システムに関わる開発者や企画者が判断していく形です。その人たちが偏った思想や倫理観を持っていたら、特定の人に有利もしくは不利になるAIが出来上がってしまう危険もあります。
AIに携わる人は出来るだけ公平に物事をみれる人でなければいけなくて、そのための啓蒙活動というのもぼちぼち考えていかなければいけない時代になってきてると感じます。