06 Feb 2023 What's New 3 min. to read

Надо ли бояться искусственного интеллекта?

Если коротко – то да! Всемогущие масс-медиа предупреждают человечество о новой глобальной угрозе: это AI (ИИ – искусственный интеллект). Опубликовано обращение тысячи специалистов в этой области, под которым поставили свои подписи и такие статусные индивидуумы, как отец SpaceX и Tesla Илон Маск и сооснователь Apple Стив Возняк. Они бьют тревогу: надо приостановить внедрение AI в нашу жизнь до проведения надлежащих исследований – иначе мыслящие роботы выйдут из-под контроля, и последствия могут быть катастрофическими.

Пресс-релиз с тревожным обращением насчет AI выпустила некоммерческая организация, которая базируется в Кембридже, штат Массачусетс, – Future of Life Institute.

Компания основана массачусетскими учеными из MIT, Tufts University и других вузов штата. Опубликованное ей открытое письмо относительно угрозы AI поддержали еще более тысячи технологических экспертов, в том числе Маск и Возняк (которые также являются учредителями этой НКО). К петиции присоединились философ Юваль Ной Харари, один из самых выдающихся генетиков современности Джордж Черч и ряд других светил науки и бизнеса.

Так что это мнение, во-первых, коллективное. Во-вторых – исключительно компетентное, учитывая калибр подписавшихся под обращением видных ученых и визионеров передовых технологий. Эксперты призвали немедленно приостановить обучение новых систем искусственного интеллекта, которые «могут представлять серьезную опасность для общества». В-третьих, это не указ, подписанный параноидальным вождем, а призыв свободных людей к другим свободным людям– всем тем, кто создает наше завтра. Авторы призыва просят приостановить разработку AI, чтобы наше «завтра» смогло вообще состояться.

Nota bene:

Кстати, если вы разработчик AI или ученый, вы можете подписать открытое письмо на сайте массачусетской НКО Future of Life Institute. Там уже более 12 тыс. подписей

Если же вы не принадлежите ученому сообществу, но у вас есть мнение о том каким должен быть протокол контроля за AI вы можете также оставить мнение на сайте Future of Life Institute в разделе What are your views on superintelligent AI  

Чтобы лучше разобраться что такое AI посмотрите в конце этой статьи видео с анимированными фактами и мифами о сверхразумном AI.

Насколько это серьезно?

Специалист по AI-безопасности Роман Ямпольский из университета Луисвилля в интервью каналу «Дождь» сказал, что проблема может стать экзистенциональной. Например, если бы компьютеру задали вопрос: как лучше побороть пандемию COVID 19, AI, возможно, ответил бы, что легче всего истребить человечество. Такой ответ основан на оптимизации принятия решений: нет человека – нет проблем, в том числе пандемий или эпидемий. Некому болеть, страдать, и не надо никого лечить. Но одно дело – получить ответ, а другое – принять и привести в действие решение автоматическое.

В этом-то и состоит филигранность разработчиков GPT-4 или других алгоритмов – разделить, где, как и кто будет принимать решение. Об этом как раз почти сорок лет назад предупреждал Джеймс Камерон в неонуарной дилогии «Терминатор».

Что предлагают?

Дело в том, что технология AI развивается быстрее, чем человечество успевает ее осваивать и изучать. Пользователи находят новые возможности применения Chat GPT едва ли не ежедневно, и перспективы такой динамичной эволюции систем искусственного интеллекта предсказать невозможно.

Сейчас ученые обращаются с воззванием – приостановить исследования и, в первую очередь, определить и детально прописать протокол безопасности. В этой связи также были прекращены разработки алгоритмов мощнее GPT-4 – самого продвинутого представителя «искусственного разума» – сроком минимум на полгода. Эту паузу, говорится в открытом письме, разработчики должны использовать для формулировки системы ограничений и общих тенденций развития AI-технологии. Например, сосредоточить усилия на модернизации, а также обеспечении безопасности и прозрачности в уже существующих системах.

Мифы и факты о сверхразумном AI

Что ждет AI в будущем?

Важно понимать, что данное письмо – это не сговор предпринимателей или панические заявления далеких от понимания вопроса чиновников. Повторимся, но данное обращение – выражение коллективных опасений талантливых ученых и предпринимателей, дошедших до своих высот меритократическим путем, т.е. благодаря своим заслугам, а не по назначению начальства; к этим людям стоит прислушаться.

Похожая дискуссия об ограничениях в работе ученых ведется в области генетики, где светила науки также призывают сначала разработать юридическую базу для индустрии, а затем уже вести дальнейшие исследования по взаимодействию с человеческим геномом.

Как показали последние полгода, за которые AI чат-боты стали мировой научной сенсацией, область изучения искусственного интеллекта требует не меньшего внимания. Неконтролируемое развитие данной технологии может привести к массовому замещению человека в десятках различных профессий, что будет иметь абсолютно непредсказуемые социальные и экономические последствия в обществе. И только взвешенный подход в таких вопросах может гарантировать, что сегодняшний умный AI-помощник не станет причиной завтрашнего мирового коллапса.

Впрочем, на фоне того, насколько кровожадны и недальновидны некоторые люди, стоящие во главе государств, вариант безраздельной власти AI уже не кажется катастрофическим.

PS Статья по теме. In A.I. we trust? Об искусственном интеллекте: коротко о главном.

А вы что думаете? Ваши комментарии оставляйте на нашей странице в Facebook. Подписывайтесь на наш дайджест – в нем мы рассказываем на русском языке о том, что происходит в Бостоне и Массачусетсе, в том числе в сферах медицины, AI , биоинженерии и генетики (см. раздел Health & Science). Пишите или звоните нам, если собираетесь в Бостон, Нью-Йорк или в поездку по Америке, по делам и не только.

Аутентичный текст проекта WelcomeToMA © и “ILike.Boston”™. All Rights Reserved. 2023. Использование текстовых материалов без изменений онлайн в некоммерческих целях разрешается c упоминанием названия проекта «Welcome to MA»© (или ленты новостей “ILike.Boston”™) и активной ссылки на оригинал материала на сайте или на одной из соцсетей издания.