Искусственный интеллект как угроза человечеству.
Опубликовано 2023-03-29 20:00 , обновлено 2023-03-29 20:13
Маск и Возняк призвали сделать паузу в развитии технологий ИИ
АВТОР ФОТО,GETTY IMAGES
Ведущие фигуры в области разработки технологий искусственного интеллекта, включая Илона Маска и сооснователя Apple Стива Возняка, предлагают сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.
Их призыв содержится в открытом письме, опубликованном некоммерческим исследовательским Институтом будущего жизни (Future of Life Institute) и подписанном более чем тысячей ведущих предпринимателей и экспертов.
Авторы письма, опубликованного спустя всего две недели после того, как американская исследовательская лаборатория OpenAI раскрыла подробности нового, самого продвинутого на сегодняшний день чат-бота GPT-4, предлагают ввести полугодовой мораторий на обучение систем, более мощных чем чат-бот GPT-4. Свой собственный чат-бот Bard также отрыла для тестирования компания Google.
В письме цитируется строчка из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент, прежде, чем начинать обучать новые системы, важно будет заручиться независимой оценкой".
"Мы согласны с этим, - пишут авторы открытого послания, - и этот момент уже наступил. Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски - управляемыми".
О каких рисках идет речь
В письме подробно описываются эти потенциальные риски для общества и цивилизации в целом. По мнению авторов, они заключаются в том, что системы на основе искусственного интеллекта могут вступить в конкуренцию с людьми, что может привести к экономическим и политическим взрывам.
В обращении приводятся четыре главные вопроса, которые, по словам авторов, должно задать себе человечество:
- "Должны ли мы позволять машинам запрудить наши информационные каналы пропагандой и ложью?"
- "Должны ли мы отдать на откуп автоматам всю работу, в том числе ту, что приносит людям удовольствие?"
- "Должны ли мы развивать разум нечеловеческого происхождения, который в будущем может нас превзойти по численности и интеллектуальным способностям, сделать нас неполноценными и нас заместить?"
- "Должны ли мы рисковать потерей контроля над нашей цивилизацией?"
Мы быстро, просто и понятно объясняем, что случилось, почему это важно и что будет дальше.
эпизоды
Эксперты и представители ИИ-индустрии считают, что на разработку и внедрение надежных протоколов безопасности должно хватить шести месяцев. Но авторы письма призывают правительства стран мира вмешаться, если какие-либо компании не выполнят требования моратория.
Авторы письма - не единственные, кто в последнее время выражает опасения по поводу бесконтрольного развития технологий ИИ.
В понедельник озабоченность по поводу этических и юридических последствий применения передовых технологий вроде ChatGPT выразило полицейское подразделение Евросоюза Европол, предупредивший о том, что потенциально эти системы могут использоваться для разных типов интернет-мошенничества - от фишинга до киберпреступлений, а также распространения дезинформации.
"Мне кажется, всем уже понятно, что искусственный интеллект открывает огромные возможности и может внести весомый вклад в создание лучшего будущего для всех нас, но не следует забывать и о связанных с этим рисках - предвзятости, дезинформации и даже манипуляциях, так что следовало бы облечь эти технологии в правила и установить над ними контроль, - заявила в связи с этим в интервью Би-би-си специалист в области защиты частных данных Ивана Бартолетти. - Нам необходимо создать атмосферу доверия, чтобы пользователи осознавали, что говорят с машиной, и что у этих машин могут быть сбои".
Сторонники технологий искусственного интеллекта говорят, что они позволяют упростить многие рутинные задачи, а также сделать поиск информации более точным.
В начале февраля российские СМИ рассказывали об истории выпускника РГГУ Александра Жадана, который написал при помощи ChatGPT дипломную работу, потратив на это около суток. Работу он сумел защитить и получить на ее основании диплом. После этого руководство ВУЗа заявило, что снова проверит диплом Жадана, а также выразило намерение запретить использование ChatGPT в образовательных организациях.
Чат-бот ChatGPT составляет свои ответы таким образом, что у пользователя может создаться иллюзия общения с живым человеком. Он также способен применять различные языковые стили.
При этом разработчики предупреждают, что ChatGPT имеет лишь отдаленное представление о событиях и явлениях, произошедших после 2021 года, поскольку его база знаний с тех пор не обновлялась. Кроме того, нередки случаи, когда искусственный интеллект начинает "галлюцинировать", то есть давать вымышленные ответы, не имеющие никакого отношения к действительности, или делать ошибки в логических построениях.
https://www.bbc.com/russian/news-65117669
Читайте также:
"Часто мы думаем, что не должны допускать дискриминации, и поэтому намеренно игнорируем пол. В результате у нас действительно есть проблема с созданием инклюзивных городов", - утверждает доцент Массачусетского технологического института Катерин Д'Игнасио."Городские управленцы - это в основном белые мужчины, и им не хватает более глубокого понимания городского сообщества, вовлеченности в него"
Справедливость, за которую борются и умирают, не абсолютна, а относительна. Абсолютная справедливость выдумана Платоном. Является одной из самых вредных теорий, стоящей на неправильных основаниях. Ставшей первопричиной морей крови. И грозящей грядущими потрясениями и странам, и всему человечеству.
Мы все еще толкуем о привычных вещах — ядерном сдерживании, конфликтах, глобализации, борьбе за гегемонию, Байдене и Путине. Все это мелочь на фоне экзистенциальной катастрофы и угроз стабильности даже для развитых государств.
Важный вопрос, представляет ли человечество единый культурный (цивилизационный) поток или состоит из набора нескольких цивилизаций (локальных, "ядерных"), окружённых полями своих культурных влияний.
|
Оставлять комментарии могут только зарегистрированные пользователи. Войдите в систему используя свою учетную запись на сайте: |
||
Geopolitical concepts*