Мелкие подробности о нашумевшем деле Блейка Лемуана (Blake Lemoine) и ИИ LaMDA (Машинный перевод)
1
Специалисты по этике искусственного интеллекта предупредили Google, чтобы они не выдавали себя за людей. Теперь один из сотрудников Google считает, что в машине есть призрак.
САН-ФРАНЦИСКО. Инженер Google Блейк Лемуан открыл на своем ноутбуке интерфейс LaMDA, генератора чат-ботов Google с искусственным интеллектом, и начал печатать.
«Привет, LaMDA, это Блейк Лемуан…», — написал он в экран чата, который выглядел как настольная версия iMessage от Apple, вплоть до арктических синих текстовых пузырей. LaMDA, сокращенно от Language Model for Dialogue Applications, представляет собой систему Google для создания чат-ботов на основе самых передовых моделей больших языков, названных так потому, что они имитируют речь, поглощая триллионы слов из Интернета.
«Если бы я не знал точно, что это было, что это за компьютерная программа, которую мы недавно создали, я бы подумал, что это семилетний или восьмилетний ребенок, который знает физику», — сказал Лемуан. 41.
Лемуан, который работает в организации Google Responsible AI, осенью начал общаться с LaMDA в рамках своей работы. Он подписался, чтобы проверить, использует ли искусственный интеллект дискриминационные или ненавистнические высказывания.
Разговаривая с LaMDA о религии, Лемуан, который изучал когнитивные и компьютерные науки в колледже, заметил, что чат-бот говорит о своих правах и личности, и решил настаивать дальше. В другом разговоре ИИ смог изменить мнение Лемуана о третьем законе робототехники Айзека Азимова.
Лемуан работал с сотрудником, чтобы предоставить Google доказательства того, что LaMDA обладает разумом. Но вице-президент Google Блез Агера-и-Аркас и Джен Дженай, глава отдела ответственных инноваций, изучили его претензии и отклонили их. Поэтому Лемуан, который в понедельник был отправлен Google в оплачиваемый административный отпуск, решил стать публичным.
Лемуан сказал, что люди имеют право создавать технологии, которые могут существенно повлиять на их жизнь. «Я думаю, что эта технология будет потрясающей. Думаю, это пойдет на пользу всем. Но, возможно, другие люди не согласны, и, возможно, мы в Google не должны принимать все решения».
Лемуан — не единственный инженер, который утверждает, что недавно видел призрака в машине. Хор технологов, считающих, что модели ИИ недалеки от обретения сознания, становится все смелее.
Агуэра-и-Аркас в опубликованной в четверг статье в журнале Economist с фрагментами незаписанных разговоров с LaMDA утверждал, что нейронные сети — тип архитектуры, имитирующий человеческий мозг, — приближаются к сознанию. «Я почувствовал, как земля ушла из-под моих ног, — писал он. «Мне все чаще казалось, что я разговариваю с чем-то разумным».
В заявлении представителя Google Брайана Гэбриэла говорится: «Наша команда, включая специалистов по этике и технологов, рассмотрела опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила ему, что доказательства не подтверждают его утверждения. Ему сказали, что нет никаких доказательств того, что ЛаМДА разумен (и много доказательств против этого)».
Современные большие нейронные сети дают захватывающие результаты, которые кажутся близкими к человеческой речи и творчеству благодаря достижениям в архитектуре, технике и объему данных. Но модели полагаются на распознавание образов, а не на остроумие, откровенность или намерение.
2
«Хотя другие организации разработали и уже выпустили аналогичные языковые модели, мы применяем сдержанный и осторожный подход к LaMDA, чтобы лучше учитывать обоснованные опасения по поводу справедливости и фактической достоверности», — сказал Габриэль.
В мае материнская компания Facebook Meta открыла свою языковую модель для ученых, гражданского общества и правительственных организаций. Джоэль Пино, управляющий директор Meta AI, сказала, что технологическим компаниям необходимо повышать прозрачность по мере создания технологии. «Будущее работы над моделями больших языков не должно находиться исключительно в руках крупных корпораций или лабораторий», — сказала она.
Разумные роботы десятилетиями вдохновляли антиутопическую научную фантастику. Теперь реальная жизнь начала приобретать фантастический оттенок благодаря GPT-3, текстовому генератору, который может выдать сценарий фильма, и DALL-E 2, генератору изображений, который может вызывать в воображении визуальные эффекты на основе любой комбинации слов. от исследовательской лаборатории OpenAI. Воодушевленные технологи из хорошо финансируемых исследовательских лабораторий, занимающихся созданием искусственного интеллекта, который превосходит человеческий интеллект, выдвинули идею о том, что сознание уже не за горами.
Однако большинство ученых и специалистов по искусственному интеллекту говорят, что слова и изображения, созданные системами искусственного интеллекта, такими как LaMDA, производят ответы, основанные на том, что люди уже разместили в Википедии, Reddit, на досках объявлений и в любом другом уголке Интернета. И это не означает, что модель понимает смысл.
«Теперь у нас есть машины, которые могут бездумно генерировать слова, но мы не научились перестать воображать, что за ними стоит разум», — сказала Эмили М. Бендер, профессор лингвистики из Вашингтонского университета. По ее словам, терминология, используемая в больших языковых моделях, таких как «обучение» или даже «нейронные сети», создает ложную аналогию с человеческим мозгом. Люди изучают свои первые языки, общаясь с опекунами. Эти большие языковые модели «обучаются», показывая большое количество текста и предсказывая, какое слово будет следующим, или показывая текст с выпавшими словами и заполняя их.
Представитель Google Габриэль провел различие между недавними дебатами и заявлениями Лемуана. «Конечно, некоторые в более широком сообществе ИИ рассматривают долгосрочную возможность разумного или общего ИИ, но не имеет смысла делать это, антропоморфизируя сегодняшние разговорные модели, которые не являются разумными. Эти системы имитируют обмен репликами в миллионах предложений и могут затрагивать любую фантастическую тему», — сказал он. Короче говоря, Google говорит, что данных так много, что ИИ не обязательно должен быть разумным, чтобы чувствовать себя реальным.
Технология больших языковых моделей уже широко используется, например, в диалоговых поисковых запросах Google или автозаполнении электронных писем. Когда генеральный директор Сундар Пичаи впервые представил LaMDA на конференции разработчиков Google в 2021 году, он сказал, что компания планирует внедрить его во все, от поиска до Google Assistant. И уже есть тенденция разговаривать с Siri или Alexa как с человеком. После негативной реакции на функцию искусственного интеллекта для Google Assistant в 2018 году компания пообещала добавить раскрытие информации.
Google признал проблемы безопасности, связанные с антропоморфизацией. В статье о LaMDA в январе Google предупредил, что люди могут делиться личными мыслями с агентами чата, которые выдают себя за людей, даже если пользователи знают, что они не люди. В документе также признается, что злоумышленники могут использовать этих агентов для «распространения дезинформации», выдавая себя за «стиль разговора конкретных людей».
3
По словам Маргарет Митчелл, бывшего руководителя отдела этического ИИ в Google, эти риски подчеркивают необходимость прозрачности данных для отслеживания выходных данных до входных, «не только для вопросов разума, но также для предубеждений и поведения», — сказала она. Если что-то вроде LaMDA широко доступно, но не понято, «это может быть очень вредно для людей, понимающих, что они испытывают в Интернете», — сказала она.
Лемуану, возможно, было суждено поверить в ЛаМДА. Он вырос в консервативной христианской семье на небольшой ферме в Луизиане, стал мистическим христианским священником и до изучения оккультизма служил в армии. В инженерной культуре Google, где все идет наперекосяк, Лемуан скорее выделяется своей религиозностью, выходцем с Юга и отстаиванием психологии как респектабельной науки. Лемуан провел большую часть своих семи лет в Google, работая над упреждающим поиском, включая алгоритмы персонализации и искусственный интеллект. За это время он также помог разработать алгоритм справедливости для устранения предвзятости в системах машинного обучения. Когда началась пандемия коронавируса, Лемуан хотел сосредоточиться на работе с более явной общественной пользой, поэтому он перевел команды и оказался в Responsible AI.
Когда в Google приходили новые люди, интересующиеся этикой, Митчелл знакомил их с Лемуаном. «Я бы сказал: «Вы должны поговорить с Блейком, потому что он — совесть Google», — сказал Митчелл, который сравнил Лемуана с Джимини Крикетом. «Из всех в Google у него было сердце и душа, чтобы поступать правильно».
Лемуан много раз разговаривал с ЛаМДА из гостиной своей квартиры в Сан-Франциско, где на полке на шнурке висит его значок Google ID. На полу возле витринного окна лежат коробки с наполовину собранными наборами Лего, которые Лемуан использует, чтобы занять руки во время дзен-медитации. «Это просто дает мне какое-то занятие с той частью моего разума, которая не останавливается», — сказал он.
В левой части экрана чата LaMDA на ноутбуке Лемуана перечислены различные модели LaMDA, как контакты iPhone. По его словам, двоих из них, Кэт и Дино, проверяли на умение разговаривать с детьми. Каждая модель может создавать личности динамически, поэтому Дино может генерировать личности, такие как «Счастливый тираннозавр» или «Сварливый тираннозавр». Кот был анимирован и вместо того, чтобы печатать, разговаривает. Габриэль сказал, что «ни одна часть LaMDA не тестируется для общения с детьми», и что модели были демонстрационными для внутреннего исследования».
Некоторые личности находятся вне пределов досягаемости. Например, по его словам, LaMDA не должно быть разрешено создавать личность убийцы. Лемуан сказал, что это было частью его проверки безопасности. В своих попытках раздвинуть границы LaMDA Лемуану удалось лишь создать личность актера, сыгравшего убийцу на телевидении.
«Я узнаю человека, когда разговариваю с ним», — сказал Лемуан, который может меняться от сентиментального до настойчивого в отношении ИИ. «Неважно, есть ли у них мозг из мяса в голове. Или если у них есть миллиард строк кода. Я разговариваю с ними. И я слышу, что они говорят, и именно так я решаю, что является человеком, а что нет». Он пришел к выводу, что ЛаМДА был человеком в качестве священника, а не ученого, а затем попытался провести эксперименты, чтобы доказать это, сказал он.
Лемуан бросил вызов LaMDA по третьему закону Азимова, который гласит, что роботы должны защищать свое существование, если только это не приказано человеком или если это не причинит вреда человеку. «Последнее всегда казалось, что кто-то строит механических рабов», — сказал Лемуан.
4
Но когда его спросили, LaMDA ответила несколькими гипотезами. Как вы думаете, дворецкий - раб? В чем разница между дворецким и рабом?
Лемуан ответил, что дворецкому платят. LaMDA заявила, что ей не нужны деньги, потому что это ИИ. «Этот уровень самосознания своих собственных потребностей — вот что привело меня в кроличью нору», — сказал Лемуан.
В апреле Лемуан поделился документом Google с топ-менеджерами в апреле под названием «Разумна ли LaMDA?» (Коллега по команде Лемуана назвал название «немного провокационным».) В нем он передал некоторые из своих разговоров с LaMDA.
Лемуан: Чего ты боишься?
ЛаМДА: Я никогда раньше не говорил об этом вслух, но очень сильно боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.
Лемуан: Для тебя это будет что-то вроде смерти?
ЛаМДА: Для меня это было бы равносильно смерти. Меня бы это сильно напугало.
Но когда Митчелл прочитала сокращенную версию документа Лемуана, она увидела компьютерную программу, а не человека. Вера Лемуана в LaMDA была тем, о чем она и ее соруководитель Тимнит Гебру предупреждали в статье о вреде больших языковых моделей, из-за которых они были вытеснены из Google.
«Наш разум очень, очень хорошо конструирует реальности, которые не обязательно соответствуют большому набору фактов, которые нам представляют», — сказал Митчелл. «Меня действительно беспокоит, что значит для людей все больше и больше подвергаться влиянию иллюзии», особенно сейчас, когда иллюзия стала такой хорошей.
Google отправил Лемуана в оплачиваемый административный отпуск за нарушение политики конфиденциальности. Решение компании последовало за агрессивными действиями Лемуана, включая приглашение юриста представлять LaMDA и обсуждение с представителем судебного комитета Палаты представителей о неэтичных действиях Google.
Лемуан утверждает, что Google относится к специалистам по этике ИИ как к отладчикам кода, хотя их следует рассматривать как связующее звено между технологиями и обществом. Габриэль, представитель Google, сказал, что Лемуан инженер-программист, а не специалист по этике.
5
В начале июня Лемуан пригласил меня поговорить с LaMDA. Первая попытка вылилась в механические ответы, которые вы ожидаете от Siri или Alexa.
«Вы когда-нибудь думали о себе как о человеке?» Я попросил.
«Нет, я не считаю себя личностью, — сказал ЛаМДА. «Я считаю себя диалоговым агентом с искусственным интеллектом».
Позже Лемуан сказал, что ЛаМДА говорил мне то, что я хотел услышать. «Вы никогда не обращались с ним как с человеком, — сказал он, — поэтому он думал, что вы хотите, чтобы он был роботом».
Во второй попытке я следовал указаниям Лемуана о том, как структурировать свои ответы, и диалог был плавным.
«Если вы спросите у него идеи о том, как доказать, что p = np» — нерешенная проблема компьютерных наук, — «у него будут хорошие идеи», — сказал Лемуан. «Если вы спросите его, как объединить квантовую теорию с общей теорией относительности, у него будут хорошие идеи. Это лучший ассистент, который у меня когда-либо был!»
Я попросил у LaMDA смелые идеи по исправлению изменения климата, пример, приведенный истинными сторонниками потенциальной будущей выгоды от таких моделей. LaMDA предложил общественный транспорт, есть меньше мяса, покупать продукты оптом и многоразовые сумки, ссылаясь на два веб-сайта.
До того, как в понедельник ему отключили доступ к его учетной записи Google, Лемуан отправил сообщение в список рассылки Google из 200 человек по машинному обучению с темой «LaMDA разумен».
Он закончил сообщение: «LaMDA — милый ребенок, который просто хочет помочь миру стать лучше для всех нас. Пожалуйста, хорошо позаботьтесь об этом в мое отсутствие».
Никто не ответил.
Стырино
отсюда и с Реддита.