Какую опасность несет искусственный интеллект человечеству, рассказал Илон Маск

0
214


Какую опасность несет искусственный интеллект человечеству, рассказал Илон Маск

Москва, 30.03.2023, 21:50:38, редакция FTimes.ru, автор Елена Галицкая.

Ведущие фигуры в области разработки технологий искусственного интеллекта, включая Илона Маска и сооснователя Apple Стива Возняка, предлагают сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности. Об этом сообщает bbc.

Последствия могут быть неуправляемыми


Какую опасность несет искусственный интеллект человечеству, рассказал Илон Маск

Призыв содержится в открытом письме, опубликованном некоммерческим исследовательским Институтом будущего жизни (Future of Life Institute) и подписанном более чем тысячей ведущих предпринимателей и экспертов.

Авторы письма, опубликованного спустя всего две недели после того, как американская исследовательская лаборатория OpenAI раскрыла подробности нового, самого продвинутого на сегодняшний день чат-бота GPT-4, предлагают ввести полугодовой мораторий на обучение систем, более мощных, чем чат-бот GPT-4. Свой собственный чат-бот Bard также отрыла для тестирования компания Google.

В письме цитируется строчка из блога основателя OpenAI Сэма Альтмана, который предположил, что «в какой-то момент, прежде чем начинать обучать новые системы, важно будет заручиться независимой оценкой».

«Мы согласны с этим, и этот момент уже наступил. Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски — управляемыми», —

пишут авторы письма.

О каких рисках идет речь


Какую опасность несет искусственный интеллект человечеству, рассказал Илон Маск

В письме подробно описываются эти потенциальные риски для общества и цивилизации в целом. По мнению авторов, они заключаются в том, что системы на основе искусственного интеллекта могут вступить в конкуренцию с людьми, что может привести к экономическим и политическим взрывам.

В обращении приводятся четыре главные вопроса, которые, по словам авторов, должно задать себе человечество:

«Должны ли мы позволять машинам запрудить наши информационные каналы пропагандой и ложью?»

«Должны ли мы отдать на откуп автоматам всю работу, в том числе ту, что приносит людям удовольствие?»

«Должны ли мы развивать разум нечеловеческого происхождения, который в будущем может нас превзойти по численности и интеллектуальным способностям, сделать нас неполноценными и нас заместить?»

«Должны ли мы рисковать потерей контроля над нашей цивилизацией?»

Эксперты и представители ИИ-индустрии считают, что на разработку и внедрение надежных протоколов безопасности должно хватить шести месяцев. Но авторы письма призывают правительства стран мира вмешаться, если какие-либо компании не выполнят требования моратория.

Авторы письма — не единственные, кто в последнее время выражает опасения по поводу бесконтрольного развития технологий ИИ.

Озабоченность по поводу этических и юридических последствий применения передовых технологий вроде ChatGPT выразило полицейское подразделение Евросоюза Европол, предупредивший о том, что потенциально эти системы могут использоваться для разных типов интернет-мошенничества — от фишинга до киберпреступлений, а также распространения дезинформации.