«Ключ в прозрачности»: Для обучения ИИ нужны непредвзятые этические стандарты
Для корректного обучения нейросетей необходимо использовать разнообразные источники с проверенными и достоверными данными, сказал НСН Олег Кивокурцев.
Компании, использующие и создающие искусственный интеллект (ИИ), должны открыто делиться информацией о том, на каких данных обучаются их модели, и как принимаются решения, заявил в эфире НСН сооснователь компании «Промобот» Олег Кивокурцев.
Глава КПРФ Геннадий Зюганов ранее назвал развитие ИИ «угрозой человечеству». Он отметил, что если люди не смогут его отрегулировать, то человечество «утонет в провокациях», что может закончиться «очень плохо». Депутат вспомнил слова американского миллиардера Илона Маска, который сказал, что если в алгоритм искусственного интеллекта не будет вложена правда, то «мы погибнем». Кивокурцев отметил, что в рамках обучения нейросетей должны использоваться четкие этические стандарты и регулирование.
«Вложить правду в ИИ можно несколькими способами, и это не так просто, как может показаться. Во-первых, нужны четкие этические стандарты и регулирование. Без этого разработчики будут действовать по своему усмотрению, что может привести к созданию предвзятых или даже опасных алгоритмов. Регуляторы должны установить правила, которые обязывают компании учитывать этические аспекты при разработке ИИ. Во-вторых, прозрачность алгоритмов и данных - это ключ. Если никто не понимает, как работает ИИ, как можно ожидать, что он будет честным? Компании должны открыто делиться информацией о том, на каких данных обучаются их модели, и как принимаются решения. Это поможет выявить предвзятости и ошибки», - сказал собеседник НСН.
По его словам, для корректного обучения искусственного интеллекта необходимо использовать разнообразные источники с проверенными и достоверными данными.
«В-третьих, важно использовать многообразие источников информации. Если ИИ обучается только на одном типе данных, он будет ограничен и предвзят. Нужно собирать данные из разных источников, чтобы создать более сбалансированную картину. Наконец, обучение ИИ на проверенных и достоверных данных - это основа. Если ИИ будет обучаться на фейках и недостоверной информации, он не сможет выдавать правдивые результаты. Поэтому необходимо тщательно отбирать данные, чтобы они были качественными и надежными. В общем, это комплексный процесс, и без серьезных усилий со стороны разработчиков и регуляторов мы рискуем получить ИИ, который будет только усугублять проблемы, а не решать их», - заключил эксперт.
Ранее руководитель проекта по интеграции нейросетей в TenChat Александр Жадан заявил НСН, что нейросети часто выдают недостоверную информацию, поэтому главная задача сейчас отрегулировать алгоритм так, чтобы нейросети смогли перепроверять сами себя.
Горячие новости
- Путин подписал закон об усилении контроля за тарифами ЖКУ
- Депутаты Госдумы предложили опубликовать «белые списки» сайтов
- «Такое будоражит»: Почему «Проект „Конец света“» притянет россиян магнитом
- Михалков заявил, что премию «Бриллиантовая бабочка» в 2026 году вручат в Москве
- Режиссер Валерий Фокин стал лауреатом премии «Хрустальная Турандот»
- Осужденный за хищение более 900 млн рублей Митволь выйдет на свободу 24 марта
- Путин запретил изымать у многодетных семей земельные участки за долги
- Вынужденный жест доброй воли: Зачем Трамп приостановил удары по Ирану
- Татьяна Буланова отказалась брать перерыв в карьере на фоне проблем со здоровьем
- Путин запретил выдворять из РФ служащих в российской армии иностранцев
