В ближайшем будущем полное доверие нейросетям может стать опасным, так как они все еще часто ошибаются, что в критических ситуациях может привести к негативным последствиям. Об этом предупредил глава группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов, сообщает РИА Новости.
Тушканов отметил, что в настоящее время пользователи могут столкнуться с ситуацией, когда нейросеть представляет информацию «красивыми словами», но при этом она может быть неверной или искаженной.
Проблема, известная как overreliance (чрезмерное доверие), возникает, когда люди полностью полагаются на языковые модели для упрощения процессов и решения задач. Чем точнее становятся нейросети, тем больше пользователи им доверяют, что увеличивает риск критических ошибок.
Тушканов подчеркнул, что существует опасность использования нейросетей в мошеннических целях, особенно с учетом возможности дипфейков и подделки голоса. Он выразил сомнения в возможности полной доверия к нейросетям на 100% из-за регулярных ошибок, которые они могут допускать.
Понравилась новость? Добавьте в избранное Дзен Новости, присоединяйтесь к нашим сообществам Вконтакте и Одноклассники и нашему Telegram-каналу.