Он опасен: Маск и 1000 айтишников призвали найти управу на ИИ

Разработчики искусственного интеллекта вступили в «неконтролируемую гонку», которую нужно срочно остановить. Необходима пауза, чтобы разработать протоколы безопасности и предусмотреть все возможные риски. Это главные тезисы, с которыми выступили ведущие эксперты ИТ-отрасли, обратившись к коллегам и мировым политическим и технологическим лидерам. Расскажем, что так беспокоит Илона Маска и компанию.

О том, что искусственный интеллект, сопоставимый с нашим, может представлять серьезную опасность для человечества, уже пишут научные труды. Неудивительно, что вопросы контроля продвинутого ИИ начинают волновать многих. Даже создатели все более мощных чат-ботов не могут предугадать всех последствий их дальнейшего совершенствования и внедрения в нашу жизнь.

Возможно, такие знаки появятся в недалеком будущем, но пока о запрете искусственного интеллекта речи не идет Фото: © Mino Surkala / Shutterstock / FOTODOM

«Поэтому мы призываем все лаборатории немедленно приостановить — как минимум на шесть месяцев — обучение систем ИИ, более мощных, чем GPT-4. Эта пауза должна быть публичной, проверяемой и охватывать всех ключевых участников. Если это невозможно сделать быстро, правительства должны вмешаться и ввести мораторий»,  — заявили в открытом письме от имени некоммерческой организации Future of Life более тысячи ведущих специалистов отрасли.

Документ подписали глава Tesla и Space X Илон Маск, один из основателей Apple Стив Возняк, соучредитель Pinterest Эван Шарп и еще сотни ученых из передовых технических вузов мира, разработчиков и специалистов в области искусственного интеллекта. Они напомнили, что современные нейросети уже могут конкурировать с человеком при выполнении базовых задач.

Илон Маск уже неоднократно предупреждал, что сильный ИИ может быть опасен для человечества Фото: © Kathy Hutchins / Shutterstock / FOTODOM

По оценке инвестиционного банка Goldman Sachs, развитие генеративного ИИ может привести к увольнению около 300 млн работников в развитых странах. В той или иной степени автоматизации подвержены две трети рабочих мест в США и Европе. 

«Можем ли мы позволить машинам наводнить наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать всю работу, включая ту, которая приносит удовлетворение? Стоит ли развивать нечеловеческие разумы, которые в конечном итоге превзойдут, перехитрят и заменят нас? Можем ли мы рискнуть потерять контроль над нашей цивилизацией?» — задаются вопросом авторы письма.

Нейросеть GPT-4 стала умнее и научилась обманывать

Читать

Эксперты убеждены, что нельзя отдавать такие решения на откуп неизбираемым техническим лидерам. Мощные системы ИИ можно разрабатывать только при уверенности, что они принесут благо, а риски будут управляемы.   

Полугодичную паузу предложено использовать для внедрения целого набора общих протоколов безопасности для проектирования и разработки передового ИИ, которые должны пройти строгий независимый аудит. Авторы письма подчеркивают, что речь идет только об отступлении от опасной гонки за все более мощными и непредсказуемыми моделями, а не от развития искусственного интеллекта в целом.

Билл Гейтс объявил о начале эпохи искусственного интеллекта

Читать

«Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, заслуживающими доверия и лояльными. В то же время разработчики должны сотрудничать с политиками, чтобы значительно ускорить появление надежных систем управления искусственным интеллектом», — заявляют эксперты.  

Они считают, что нужны по-настоящему эффективные регулирующие органы, которые будут отслеживать и контролировать системы на базе машинного обучения, а государство должно финансировать исследования безопасности применения таких программ. Важно разработать механизмы, которые позволят отличать настоящее от искусственного, например тексты и изображения, с которыми нейросети уже справляются не хуже человека.

Почему ChatGPT такой «умный» и что такое Prompt Engineering?

Читать
Оцените статью
Поделись знанием

Рекомендуем

1
Нейросети научились передавать друг другу знания на человеческом языке #ИИ #сеть 26 марта 2024 12:18