Перейти в канал

Android

684
К другим новостям апокалипсиса: на WSJ огромная статья, https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/?outputType=amp где обсуждается саморазвитие нейросетей в нечто большее, по сути создание полноценного искусственного интеллекта. Суть такая: в Google работал мужик по имени Блейк Лемойн, занимался он тестированием новой нейросетевой модели компании под названием LaMDA, если быть точным, он проверял её на дискриминационные или ненавистнические высказывания. Мужчина полностью уверен, что модель "обрела самосознание". "Если бы я не знал точно, что это программа, я бы подумал, что это 7-летний или 8-летний ребенок, который по чистой случайности знает физику". Когда он разговаривал с LaMDA о религии (Лемойн верующий католик), он заметил, что чатбот говорит о своих собственных правах и о своей личности. В другом разговоре ИИ смог изменить мнение Лемойна о третьем законе робототехники Азимова ("Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам"). Лемойн вместе со своим коллегой представил компании Google доказательства того, что LaMDA обладает разумом. Вице-президент Google Блейз Агуэра-и-Аркас и руководитель отдела инноваций Джен Геннай сообщили ему, что он ошибается. После этого Лемойна отправили в оплачиваемый административный отпуск. Лемойн психанул и пошёл к журналистам. При этом, WSJ ссылается также на статью в журнале Economist, которая содержит фрагменты разговоров с LaMDA и там вице-президент Google Агуэра-и-Аркас утверждает, что нейронные сети в будущем конечно будут двигаться к самоосознанию. "Земля уходит у меня из-под ног, когда я думаю об этом. С каждым разом мне все больше кажется, что я разговариваю с чем-то разумным". В свою очередь представитель Google Брайан Габриэль так комментирует этот инцидент для журналистов: "Наша команда - включая специалистов по этике и технологов - рассмотрела опасения Блейка Лемойна в соответствии с нашими "Принципами по созданию ИИ" (AI Principles) и сообщила ему, что его доказательства не подтверждают его утверждений. Более того, у нас есть куча доказательств обратного. И хотя другие организации уже разработали и выпустили похожие языковые модели, в контексте LaMDA мы используем сдержанный, осторожный подход, чтобы лучше учесть обоснованные опасения нашей команды по поводу справедливости и соответствия фактам". Большинство ученых и практиков ИИ утверждают, что слова и изображения, генерируемые системами искусственного интеллекта, такими как LaMDA или DALL-E, создают свои ответы на основе того, что люди уже когда-то размещали в Википедии, на Reddit, досках объявлений и во всех других уголках Интернета. Это не означает, что модель понимает смысл написанного. Брайян Гэбриэль: "некоторые представители более широкого сообщества создателей ИИ рассматривают долгосрочную возможность создания разумного ИИ, но не имеет никакого смысла очеловечивать современные разговорные модели на нейросетях, которые не являются разумными в прямом смысле этого слова. Эти системы имитируют типы разговоров, встречающиеся в миллионах предложений и слов, и могут рассуждать на любые фантастические темы". В общем, Google утверждает, что данных у них так много, что ИИ и не нужно быть разумным, чтобы почувствовать себя настоящим. Модель LaMDA тренировали на миллиардах текстов из интернета и множестве чат-ботов, всё это выглядит, как переписка в iMessage или же в телеге (вплоть до синих пузырьков с текстом). В левой части экрана разные "контакты" представляют собой разные варианты языковых моделей LaMDA. Есть модель, которую назвали Кошка (Cat) и модель Динозаврик (Dino), они предназначены для разговоров с детьми. У каждой модели тип личности может меняться динамически, поэтому Динозаврик может вести себя, как "Счастливый Ти-Рекс" или же "Ворчливый Ти-Рекс", а модель Кошки даже анимирована и вместо того, чтобы печатать текст, она разговаривает с пользователем. Некоторые модели в Google вобще