Наука и технологии

Погрешность навсегда: Кого винить в ошибках нейросети

Чат-бот дает ответ, ориентируясь на алгоритмы, которые задал человек, и не несет ответственности за ошибки, заявил НСН Александр Дворянский.

Нейросети и искусственный интеллект (ИИ) формулируют результаты точно так, как этого захотел человек, который разработал алгоритм. Идеальной точности в таком случае добиться будет невозможно, рассказал НСН эксперт по кибербезопасности, директор по информационной безопасности ГК «Элемент» Александр Дворянский.

Ведущие нейросети стали давать в два раза больше ложной информации, выяснили исследователи из компании NewsGuard. По их данным, в зависимости от бренда, доля таких ответов составила от 10% до 57%. Суммарный рост неправильных результатов составил 18% за год. Дворянский указал, что в этом может быть и вина человека.

«Ответ зависит только от того, как пользователь ставит задачу нейросети У огромного количества запросов может получаться фальшиво позитивный результат из-за неверной интерпретации. Но алгоритм решений устанавливает человек. Тут все зависит от нас, как и вопрос, так и ответ, который может к тому же быстро устаревать. В дальнейшем все само собой придет в норму, пока искусственный интеллект — это еще тестируемое решение. Здесь надо проверить все ложные гипотезы, а до тех пор ошибки будут. Хотя процент погрешности все равно останется даже в далеком будущем, 0% он не будет», — подчеркнул он.

Ранее Дворянский рассказал НСН, когда в России появится суверенный искусственный интеллект.

Подписывайтесь на НСН: Новости | Дзен | VK | Telegram