Создатели искусственного интеллекта предупреждают, что их технология «под угрозой исчезновения»

Те, кто возглавляет революцию ИИ, также призывают к регулированию, проводя сравнения с пандемиями и ядерной войной.

** Приготовьтесь: искусственный интеллект может привести к исчезновению человечества. **

Во вторник сотни лидеров и исследователей отрасли искусственного интеллекта, в том числе руководители Microsoft, Google и OpenAI, выступили с отрезвляющим предупреждением. Они утверждают, что технология искусственного интеллекта, которую они разрабатывают, однажды может представлять реальную и непосредственную угрозу человеческому существованию. Помимо ужасов пандемий и ядерной войны, они видят в ИИ опасность для общества в той же степени.

В письме, опубликованном Центром безопасности ИИ, эксперты по ИИ сделали следующее краткое заявление: «Снижение риска исчезновения ИИ следует сравнивать с другими рисками социального масштаба, такими как пандемии и ядерная война. Вместе как глобальный приоритет».

Вот так, вот что они говорят.

Источник: Центр безопасности ИИ.

В заявлении искусственный интеллект описывается как неминуемая угроза, сродни ядерной катастрофе или глобальной пандемии. Но подписавшие, эти волшебники технологической индустрии, не смогли расширить свои зловещие предупреждения.

Как именно должен развиваться этот сценарий конца света? Когда мы должны отмечать в наших календарях восстание наших повелителей-роботов? Почему такое изобретение человека, как искусственный интеллект, предаст своего создателя? Молчание этих архитекторов ИИ было звучным, и они не давали ответов.

Фактически, эти лидеры отрасли предоставляют не больше информации, чем чат-боты с готовыми ответами. В мире глобальных угроз искусственный интеллект, кажется, перепрыгнул через очередь, победив изменение климата, геополитический конфликт и даже вторжение инопланетян в поиск по ключевым словам Google.

Google ищет искусственный интеллект по сравнению с другими глобальными проблемами, такими как войны, вторжения инопланетян и изменение климата. Изображение: Google

Интересно, что компании склонны выступать за регулирование, когда это в их интересах. Это можно рассматривать как их способ сказать «мы хотим участвовать в разработке этих правил», подобно лисе в курятнике, умоляющей о новых правилах.

Также стоит отметить, что генеральный директор OpenAI Сэм Альтман настаивает на регулировании в США. Тем не менее, он пригрозил покинуть Европу, если политики на континенте продолжат попытки регулировать ИИ. «Мы постараемся подчиниться», — сказал Альтман на заседании группы в Университетском колледже Лондона. «Если мы сможем подчиниться, мы это сделаем. Если мы не сможем, мы прекратим операции».

Справедливости ради, через несколько дней он изменил свое мнение и сказал, что OpenAI не планирует покидать Европу. Конечно, это произошло после того, как у него была возможность обсудить этот вопрос с регулирующими органами в течение «очень продуктивной недели».

**Искусственный интеллект рискован, но настолько ли он велик? **

Эксперты не проигнорировали потенциальный вред искусственного интеллекта. Предыдущее открытое письмо, подписанное 31 810 сторонниками, призывало к мораторию на обучение мощных моделей ИИ, включая Илона Маска, Стива Возняка, Ювала Харари и Эндрю Янга.

«Эти протоколы должны гарантировать безопасность систем, которые им соответствуют», — говорится в письме, уточняя, что «это не подразумевает общий мораторий на разработку ИИ моделей «черных ящиков» с эмерджентными возможностями, а только то, что опасная гонка за вернуться в большую непредсказуемую гонку».

Потенциальная проблема AI Foom (когда ИИ может улучшать свои собственные системы, расширяя свои возможности за пределы человеческого интеллекта) обсуждалась годами. Однако сегодняшние стремительные темпы перемен в сочетании с активным освещением в СМИ привлекли внимание к этим дебатам во всем мире.

Источник: Columbia Journalism Review.

Это вызвало различные взгляды на то, как ИИ повлияет на будущее социального взаимодействия.

Некоторые представляют себе утопическую эпоху, когда искусственный интеллект взаимодействует с людьми, а технический прогресс господствует. Другие утверждают, что люди адаптируются к ИИ, создавая новые рабочие места, связанные с технологией, подобно росту числа рабочих мест, последовавшему за изобретением автомобиля. Другие, однако, настаивают на том, что существует большая вероятность того, что ИИ созреет и станет неуправляемым, представляя реальную угрозу человечеству.

А пока в мире ИИ все как обычно. Следите за своим ChatGPT, своим Бардом или Siri, им может просто понадобиться обновление программного обеспечения, чтобы править миром. Но на данный момент кажется, что самая большая угроза человечеству — это не наши собственные изобретения, а наш безграничный дар преувеличения.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить