Искусственный интеллект как угроза человечеству.
Опубликовано 2023-03-29 21:00 , обновлено 2023-03-29 21:13
Маск и Возняк призвали сделать паузу в развитии технологий ИИ
Ведущие фигуры в области разработки технологий искусственного интеллекта, включая Илона Маска и сооснователя Apple Стива Возняка, предлагают сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.
Их призыв содержится в открытом письме, опубликованном некоммерческим исследовательским Институтом будущего жизни (Future of Life Institute) и подписанном более чем тысячей ведущих предпринимателей и экспертов.
Авторы письма, опубликованного спустя всего две недели после того, как американская исследовательская лаборатория OpenAI раскрыла подробности нового, самого продвинутого на сегодняшний день чат-бота GPT-4, предлагают ввести полугодовой мораторий на обучение систем, более мощных чем чат-бот GPT-4. Свой собственный чат-бот Bard также отрыла для тестирования компания Google.
В письме цитируется строчка из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент, прежде, чем начинать обучать новые системы, важно будет заручиться независимой оценкой".
"Мы согласны с этим, - пишут авторы открытого послания, - и этот момент уже наступил. Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски - управляемыми".
О каких рисках идет речь
В письме подробно описываются эти потенциальные риски для общества и цивилизации в целом. По мнению авторов, они заключаются в том, что системы на основе искусственного интеллекта могут вступить в конкуренцию с людьми, что может привести к экономическим и политическим взрывам.
В обращении приводятся четыре главные вопроса, которые, по словам авторов, должно задать себе человечество:
- "Должны ли мы позволять машинам запрудить наши информационные каналы пропагандой и ложью?"
- "Должны ли мы отдать на откуп автоматам всю работу, в том числе ту, что приносит людям удовольствие?"
- "Должны ли мы развивать разум нечеловеческого происхождения, который в будущем может нас превзойти по численности и интеллектуальным способностям, сделать нас неполноценными и нас заместить?"
- "Должны ли мы рисковать потерей контроля над нашей цивилизацией?"
Мы быстро, просто и понятно объясняем, что случилось, почему это важно и что будет дальше.
эпизоды
Эксперты и представители ИИ-индустрии считают, что на разработку и внедрение надежных протоколов безопасности должно хватить шести месяцев. Но авторы письма призывают правительства стран мира вмешаться, если какие-либо компании не выполнят требования моратория.
Авторы письма - не единственные, кто в последнее время выражает опасения по поводу бесконтрольного развития технологий ИИ.
В понедельник озабоченность по поводу этических и юридических последствий применения передовых технологий вроде ChatGPT выразило полицейское подразделение Евросоюза Европол, предупредивший о том, что потенциально эти системы могут использоваться для разных типов интернет-мошенничества - от фишинга до киберпреступлений, а также распространения дезинформации.
"Мне кажется, всем уже понятно, что искусственный интеллект открывает огромные возможности и может внести весомый вклад в создание лучшего будущего для всех нас, но не следует забывать и о связанных с этим рисках - предвзятости, дезинформации и даже манипуляциях, так что следовало бы облечь эти технологии в правила и установить над ними контроль, - заявила в связи с этим в интервью Би-би-си специалист в области защиты частных данных Ивана Бартолетти. - Нам необходимо создать атмосферу доверия, чтобы пользователи осознавали, что говорят с машиной, и что у этих машин могут быть сбои".
Сторонники технологий искусственного интеллекта говорят, что они позволяют упростить многие рутинные задачи, а также сделать поиск информации более точным.
В начале февраля российские СМИ рассказывали об истории выпускника РГГУ Александра Жадана, который написал при помощи ChatGPT дипломную работу, потратив на это около суток. Работу он сумел защитить и получить на ее основании диплом. После этого руководство ВУЗа заявило, что снова проверит диплом Жадана, а также выразило намерение запретить использование ChatGPT в образовательных организациях.
Чат-бот ChatGPT составляет свои ответы таким образом, что у пользователя может создаться иллюзия общения с живым человеком. Он также способен применять различные языковые стили.
При этом разработчики предупреждают, что ChatGPT имеет лишь отдаленное представление о событиях и явлениях, произошедших после 2021 года, поскольку его база знаний с тех пор не обновлялась. Кроме того, нередки случаи, когда искусственный интеллект начинает "галлюцинировать", то есть давать вымышленные ответы, не имеющие никакого отношения к действительности, или делать ошибки в логических построениях.
https://www.bbc.com/russian/news-65117669
Читайте также:
"Часто мы думаем, что не должны допускать дискриминации, и поэтому намеренно игнорируем пол. В результате у нас действительно есть проблема с созданием инклюзивных городов", - утверждает доцент Массачусетского технологического института Катерин Д'Игнасио."Городские управленцы - это в основном белые мужчины, и им не хватает более глубокого понимания городского сообщества, вовлеченности в него"
Справедливость, за которую борются и умирают, не абсолютна, а относительна. Абсолютная справедливость выдумана Платоном. Является одной из самых вредных теорий, стоящей на неправильных основаниях. Ставшей первопричиной морей крови. И грозящей грядущими потрясениями и странам, и всему человечеству.
Мы все еще толкуем о привычных вещах — ядерном сдерживании, конфликтах, глобализации, борьбе за гегемонию, Байдене и Путине. Все это мелочь на фоне экзистенциальной катастрофы и угроз стабильности даже для развитых государств.
Важный вопрос, представляет ли человечество единый культурный (цивилизационный) поток или состоит из набора нескольких цивилизаций (локальных, "ядерных"), окружённых полями своих культурных влияний.
Оставлять комментарии могут только зарегистрированные пользователи. Войдите в систему используя свою учетную запись на сайте: |
||