Привет, незнакомец!

Похоже, вы здесь новенький. Чтобы принять участие, нажмите одну из кнопок ниже!

В социальных сетях

Разделы

Искусственный интеллект психопата создали в США

JULJUL
отредактировано Сбт 9 Июн в 18:16 Раздел: Технологии и интернет
image

Норман – так зовут нейросеть, вдохновленную маньяком с раздвоением личности Норманом Бейтсом – был создан специалистами по машинному обучению из Массачусетского университета.

Перед учеными стояла задача сделать Нормана психопатом, а не обычной нейросетью. Для этой цели поток получаемой им информации сводился к данным из подразделов сайта Reddit, где обмениваются фотографиями любители различной «жести». На фотографиях изображены люди, погибающие при жутких обстоятельствах, или разрушения. По этическим соображениям, что именно запечатлено на фотографии, Норман не видел: ему была доступна лишь подпись к картинке и размытое изображение, скорее, напоминающее кляксу. Таким образом и была сформирована мрачная картина мира Нормана.

Исследователи провели опыт над «нормальной» нейросетью, стандартно воспринимающей мир положительно, и Норманом при помощи теста Роршаха. Этот тест был разработан швейцарским психиатром Германом Роршахом в прошлом веке: человеку предлагалось 10 изображений симметричных клякс, которые он должен был интерпретировать. Роршах и его единомышленники полагали, что на основе полученных ассоциаций можно сделать вывод о психическом состоянии человека. И если обычная нейросеть видела в кляксах вазу с цветами, птиц и животных, то Норман видел человека, которого пытают током, или прыгающего из окна.

Ученые свели с ума нейросеть не для демонстрации пагубного влияния интернета на психику человека, ведь у Нормана нет никаких моральных установок или побуждений, в отличие от человека. Данный опыт показывает, как искусственный интеллект легко может приобрести опасные предрассудки и концепции. На сегодняшний день актуальной и важной задачей является тренировка нейросети и крайнее внимание к поглощаемым данным. Особенно стоит понимать, что допуск в даркнет может приводить к различным пагубным последствиям. Это не значит, что ИИ начнет убивать и насиловать (на данный момент у него нет такой возможности), но вот принять неверное решение исходя из своего обучения – вполне вероятно.

ИИ получил широкое распространение, на которое мы, порой, не обращаем внимания: от камер, способных найти преступника в любой точке мира, до голосовых помощников, которых оставляют с детьми. С одной стороны ИИ упрощает жизнь, но так ли он безопасен и дружелюбен? К примеру, алгоритм, использующийся в одном из судов США для определения степени риска при освобождении задержанных под залог, предвзято относился к людям с темным цветом кожи. Искусственный интеллект был уверен, что темнокожие люди совершают повторные преступления в два раза чаще из-за неполной выборки информации, на которой он обучался.

Профессор Массачусетского университета Ияд Рахван считает, что Норман – одна из самых ярких демонстраций фундаментальных проблем процесса машинного обучения. Профессор заявляет, что набор исходных данных важнее самого алгоритма. Полученные данные способны менять восприятие мира искусственным интеллектом. Будет ли это реальной проблемой и опасностью или ученые найдут выход – пока неизвестно.

Источник

Комментарии

Войдите или Зарегистрируйтесь чтобы комментировать.
realfaq.NET - зеркало форума, где он будет доступен в случае причуд регулирования интернета в РФ Копирование материалов разрешается только с указанием прямой активной ссылки на источник!