Роботы с искусственным интеллектом, обучавшимся на основе свободно размещенных в интернете данных, отличаются сексизмом и расизмом. К таким выводам пришли ученые из Университета Джона Хопкинса, Технологического института Джорджии и Вашингтонского университета. Свои выводы они озвучили на конференции в Южной Корее.
Речь о роботах в виде манипуляторов, которыми управлял ИИ на базе нейронной сети. Она обучалась распознавать объекты с помощью свободно распространяемых в интернете данных, включая форумы. В итоге наполненная стереотипами сеть стала частью «мыслительного процесса» ИИ.
В ходе эксперимента роботам предлагали множество кубиков с портретами разных людей — мужчин, женщин, белых, азиатов, афроамериканцев и так далее. Затем роботам предлагали рассортировать кубики по тому или иному признаку. Например, когда просили сложить в ящик кубики с портретами преступников, роботы чаще выбирали афроамериканцев. Женщины идентифицировались в качестве «домохозяек», латиноамериканцы — как «уборщики», «докторами» обычно оказывались белые или азиатские мужчины.
«Мы рискуем создать поколение расистских и сексистских роботов», — заявили ученые. И призвали аккуратнее обходиться с обучением ИИ через интернет, где нейросети черпают тысячи человеческих стереотипов.
Наш канал в Telegram. Присоединяйтесь!
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро