【画像認識】MicrosoftのAI「Tay」
どうやらMicrosoftのAI「Tay」が不適切な発言を連発しているらしい。
上の記事でも書いてあったが、
「Tay」が不適切な発言を連発する原因は不適切な表現(人種差別・性差別・暴力表現)を学習させられたためとのこと。
AIと同様に画像認識でも識別精度は学習が命であり、
正解付けを慎重に行うことが求められている。
(ものすごく簡単に言うと、
人の顔を覚えさせたいのに犬の顔で学習してもダメだということ)
見方を変えると、
今回のように、悪人が不適切なことを学習させてAIが悪人になったのであれば、
今後、良心を持った人間が学習させればAIは聖人になるのかもしれない。
このように、
これから考えるべきは、「どのようなAIを作り何を学習させるか」ということより、
「だれが学習させるのか」が重要なのかもしれない。