Всё чаще из СМИ становится известно о случаях, когда искусственный интеллект вместо помощи людям, оказавшимся в сложной ситуации, предлагает им решения совершенно иного плана.
Это, к сожалению, стало приводить к печальным последствиям.
Несколько громких эпизодов произошли в США и связаны с одной конкретной нейросетью.
Теперь её разработчики, чтобы исправить ситуацию, планируют интегрировать в неё:
функцию родительского контроля;
возможность добавить в чат-бот контакт доверенного лица для связи в чрезвычайных ситуациях;
прямой вызов экстренных служб.
Правильно было бы, не дожидаясь трагедий, внедрить такие механизмы создателям и других нейромоделей.
Происшедшее показывает — излишняя цифровизация, отсутствие контроля могут нести опасность и вред.
Далеко не на все вопросы можно и нужно искать ответы в нейросетях.
Искусственный интеллект — это набор алгоритмов, инструментов и баз данных. Он не бывает полностью объективен и, как оказалось, может содержать в себе скрытые угрозы.
Важно помнить об этом, пользуясь такими сервисами в жизни.
В ноябре планируем обсудить вопрос внедрения технологий ИИ и цифровизации.
Отдельное внимание и контроль — безопасности и защите граждан от негативных последствий использования нейросетей.
А как вы считаете?