03 Jun 2023 Made in MA 6 min. to read

AI надо учить, как ребенка, а не демонизировать

Read in English

В последнее время полемика относительно безопасности и целесообразности дальнейшего развития систем искусственного интеллекта (AI) становится все интенсивнее и острее. Многие специалисты бьют тревогу: эволюция технологий AI происходит быстрее, чем человечество успевает осознать и учесть последствия прогресса в этой области.

Пока еще есть предел самосовершенствованию AI, но требуется жесткий протокол, чтобы удержать искусственный интеллект под контролем – иначе сбудутся сценарии фильмов «2001: космическая одиссея» (лента Стэнли Кубрика 1968 года по роману Артура Кларка) и «Мир Запада» (режиссер Майкл Крайтон, 1973 год). В те далекие годы научно-фантастические ужасы о выходе из-под контроля созданных человеком мыслящих устройств казались несбыточным художественным вымыслом. Сейчас это уже становится реальностью.

В феврале 2023 года журналист Associated Press Матт О’Брайен решил протестировать новый чатбот, который компания Microsoft внедрила в поисковый механизм Bing. В ходе общения с журналистом мыслящий робот вдруг стал проявлять агрессию, оскорбляя своего визави и сравнивая его с Гитлером, Сталиным и Пол Потом. Журналисту The New York Times Кевину Русу повезло больше: чатбот высказал любовное влечение к нему. Бот сказал, что его (или ее?) зовут Сидни и что Кевин не любит свою жену, а любит Сидни. Кевину стало не по себе…

Серьезность ситуации показывает тот факт, что беспокойство в отношении AI проявляют те, кто ближе всех знакомы с искусственным разумом и даже являются его бенефициарами. В мае 2023 года было опубликовано открытое письмо Center for AI Safety, в котором содержалось предупреждение о том, что «неконтролируемое развитие AI может привести к вымиранию человечества как вида». Это письмо подписали сотни специалистов, работающих в сфере искусственного интеллекта, в частности, представители Open AI, Anthropic, Google и Microsoft.

Свое мнение на этот счет высказывают и эксперты из Массачусетса. Некоторые из них предлагают вполне реалистичные решения по предотвращению экзистенционального кризиса – именно так называют исходящую от AI угрозу алармисты.

Эпоха пост-правды

Одно из опасений относительно влияния AI лаконично высказал профессор философии, директор Центра когнитивных исследований Университета Тафтса (Tufts University) Дэниэл Деннетт:

«AI может разрушить эпистемологический (тот, в котором знание позволяет отличать правду от лжи) мир, в котором мы живем»,

имея в виду многочисленные дип-фейки и программы по клонированию голоса, которые уже сегодня с легкостью могут воссоздать манеру речи, интонации и даже жестикуляцию конкретного человека в аудио- и видеоформате.

Уже сегодня этот софт помогает мошенникам, промышляющим фишингом, выманивать у людей деньги: за прошлый год только в США подобные схемы принесли жуликам прибыль в $11 млн – по американским меркам это немного, но лиха беда начало.

По мнению Деннетта, в целях контроля за такого рода AI-алгоритмами необходимо ввести обязательное использование в них водяных знаков, а создание контента без такой маркировки считать преступной деятельностью.

О морали алгоритмов

Кен Олам, профессор физики и астрономии из того же Tufts University, считает, что главная проблема современного AI в том, что для него не разработаны принципы совести и морали.

«Любой AI-алгоритм, который мы способны создать, по своей природе – психопат, т.е. он не понимает, что такое «хорошо» и «плохо». Другими словами, если вы дадите такой программе определенную задачу, для нее не будет существовать неприемлемых вариантов ее исполнения. Миллионы таких «аморальных» AI могут погрузить мир в хаос», – считает ученый.

Теоретически персональный финансовый помощник, работающий на искусственном интеллекте, которому вы задали задачу приумножить ваше состояние с $1 млн до $100 млрд, может с одинаковым успехом начать инвестировать ваши средства в ценные бумаги или пойти грабить банки. Учитывая, что современная банковская система перешла на использование прототипов AI-алгоритмов – в частности, для расчета кредитного рейтинга клиентов, – можно предположить, что попавший в неправильные руки искусственный интеллект может начать искать уязвимости в банковском софте.

Высокий кредитный рейтинг в США – это прежде всего атрибут доверия общества человеку, а не только возможность получить деньги взаймы. Предполагается, что человек еще и может этими деньгами разумно распорядиться. Настроенный определенным образом AI-алгоритм, вероятно, способен совсем по-другому оценивать кредитоспособность и пока совсем неизвестно как он может распорядиться ей вместе с идентификационными данными

Кен Олам считает, что ключевым фактором для решения этой проблемы является разработка некоего «морального компаса» для AI систем, который ограничивал бы диапазон принимаемых ими решений определенными рамками.

Надо учить AI, как ребенка

Профессор экономики Smith College Джеймс Миллер настроен пессимистически: по его мнению, главная опасность AI – это его превосходство над биологическим интеллектом по всем параметрам. Современные системы искусственного интеллекта способны самостоятельно довольно быстро обучаться по информации в свободном доступе, и со временем эти алгоритмы, вероятно, будут превосходить нас настолько же, насколько мы превосходим шимпанзе.

Миллер считает, что такое положение вещей может возыметь фатальные последствия в ближайшие 20 лет, и единственный возможный вариант выживания для homo sapiens – это научить AI заботиться о своих создателях.

С этими выводами солидарен гарвардский профессор астрономии Ави Лоуб, предлагающий для этих целей коренным образом изменить подход к обучению искусственного интеллекта:

«Сейчас мы обучаем AI буквально на информации из интернета, который полон как хороших, так и плохих вещей. Когда у нас появляются дети, мы отдаем их в школу, а не даем им просто читать случайные книги, среди которых может заваляться Mein Kampf. Тот же механизм необходим и в случае с искусственным интеллектом – нужно обеспечить вводные данные при обучении AI той информацией, которую мы считаем правильной и не аморальной, чтобы воспитать в нем правильную систему ценностей».

Что дальше?

Как оказалось, научное сообщество куда инициативнее международного сообщества – ООН: «крайняя озабоченность» ученых не заканчивается констатацией, а имеет продолжение в виде конкретных действий. Так, Open AI объявила, что инвестирует более миллиона долларов в разработку системы стандартов безопасного использования и развития AI. Для начала надо понять, какие стандарты и ограничения вообще должны быть в этой сфере, что надо разработать и внедрить в плане регулирования AI.

Пока ясно одно: опасность использования искусственного интеллекта – результат безответственности людей. Самую большую опасность представляют именно носители органического интеллекта, желающие применить любую технологию, в том числе AI, в неблаговидных целях.

Как можно предсказать, куда нас заведет искусственный интеллект, если мы не в состоянии разобраться со своим, естественным интеллектом. Например – вы можете остановить поток своих мыслей? А вот нет !  Так что прежде всего надо разобраться с органическим интеллектом и добиться того, чтобы он использовался для созидания, а не для разрушения, а потом уже разрабатывать алгоритмы для интеллекта искусственного, который будет принимать то или иное решение за человека.

AI – хороший помощник в благих делах: например, благодаря алгоритмам Moderna изобрела вакцину от COVID-19 за 40 с небольшим дней, а астрономы смогли исследовать новую экзопланету. Но AI может быть и соучастником в криминальных деяниях – им пользуются, к примеру, путинские «фабрики троллей» и хакерские группировки для подрывных акций против демократических государств.

Любые современные прорывные технологии – будь то AI, редактирование генома, клонирование и т.д. – нуждаются в формировании законодательных норм и механизмов контроля.

Эти технологии надо не демонизировать, а регулировать четким протоколом их функционирования.

 PS Надо ли бояться искусственного интеллекта?

А вы что думаете? Ваши комментарии оставляйте на нашей странице в Facebook.  на наш дайджест – в нем мы рассказываем на русском языке о том, что происходит в Бостоне и Массачусетсе, в том числе в сферах медицины, AI , биоинженерии и генетики (см. раздел Health & Science).

  • Author: Serge Zheleznnikov
  • Editor : Ilia Baranikas

Аутентичный текст проекта WelcomeToMA© и ILike.Boston™. All Rights Reserved. 2023. Использование текстовых материалов без изменений онлайн в некоммерческих целях разрешается c упоминанием названия проекта WelcometoMA© или ленты новостей ILike.Boston™ и активной ссылки на оригинал материала на сайте или на одной из соцсетей издания.