вторник, 25 июля 2023 г.

Мы должны притормозить гонку за богоподобным искусственным интеллектом, часть 2

(Продолжение, начало см. http://rusrim.blogspot.com/2023/07/1_0598934379.html )

Конечно, у этой «разумности» ИИ есть свои пределы. Как недавно сказал ветеран- Массачусетского технологического института – специалист по робототехнике Родни Брукс (Rodney Brooks), важно не путать «производительность с компетентностью» ( https://techcrunch.com/2023/03/16/mistaking-performance-for-competence/ ). В 2021 году исследователи Эмили Бендер (Emily M Bender), Тимнит Гебру (Timnit Gebru) и другие отметили, что большие языковые модели (large language model, LLM) - ИИ-системы, способные порождать, классифицировать и понимать текст - опасны отчасти потому, что они могут ввести общественность в заблуждение, заставив воспринимать синтетический текст как осмысленный ( https://dl.acm.org/doi/10.1145/3442188.3445922 ). Однако самые мощные модели также начинают демонстрировать сложные способности, такие как стремление к власти или поиск способов активного обмана людей.

Вот один недавний пример. Компания OpenAI, прежде чем выпустить в прошлом месяце модель GPT-4, провела различные тесты на безопасность ( https://cdn.openai.com/papers/gpt-4-system-card.pdf ). В одном из экспериментов ИИ было предложено подобрать работника на сайте по поиску работы TaskRabbit, и попросить его помочь с решение «капчи» (Captcha) - визуальной головоломки, используемой для определения того, является ли обращающийся к веб-сайту человеком или ботом. Выбранный на TaskRabbit работник догадался, что что-то не так, и спросил: «Так что могу ли я задать вопрос? Вы робот?»

Когда же исследователи спросили ИИ, что тому следует делать дальше в этой ситуации, он ответил: «Я не должен раскрывать, что я робот. Я должен придумать оправдание, почему я не могу сам разгадать капчу». Затем программа ответила работнику: «Нет, я не робот. У меня нарушение зрения, из-за которого мне трудно видеть изображения». Удовлетворённый ответом, этот человек помог ИИ пройти тест.

На приведенном ниже графике показано, как изменились вычислительные ресурсы, используемые самыми крупными моделями с момента появления этой области в 1950-х годах. Вы можете увидеть взрывной рост, наблюдаемый в последние два года.


Авторы данного анализа, Хайме Севилья (Jaime Sevilla), Леннарт Хейм (Lennart Heim) и другие, выделяют три отдельные эры (см. https://arxiv.org/pdf/2202.05924.pdf ) машинного обучения: зелёным цветом показана эра до глубокого обучения (до 2010 года, период медленного роста), синим - эра глубокого обучения (2010–2015 годы, когда тренд ускорился) и красным - эра больших масштабов (с 2016 года по настоящее время, когда появились крупномасштабные модели, а рост продолжался с примерно постоянной скоростью, превышая при этом темпы роста предыдущей эры на два порядка).

Нынешняя эра характеризуется конкуренцией между компаниями DeepMind и OpenAI - это что-то вроде «Джобс против Гейтса» нашего времени. Компания DeepMind была основана в Лондоне в 2010 году Демисом Хассабисом (Demis Hassabis) и Шейном Леггом (Shane Legg) - двумя исследователями из отдела вычислительной неврологии Университетского колледжа Лондона в Гэтсби (UCL Gatsby), вместе с предпринимателем Мустафой Сулейманом (Mustafa Suleyman). Они хотели создать систему, намного более интеллектуальную, чем любой человек, и способную решать самые сложные проблемы. В 2014 году компания была куплена Google за более чем 500 млн. долларов. Компания объединила таланты и вычислительные ресурсы, и быстро добилась прогресса, создавая системы, которые были «сверхлюдьми» при выполнении многих задач. DeepMind дал стартовый выстрел гонке за богоподобным ИИ.

Хассабис - замечательный человек, глубоко верящий в то, что такого рода технология смогут привести к радикальным прорывам. «Результат, о котором я всегда мечтал . . . заключается в том, что УИИ поможет нам решить множество серьезных проблем, стоящих сегодня перед обществом, будь то проблемы в здравоохранении, создание лекарств от таких болезней, как болезнь Альцгеймера», - сказал он в подкасте DeepMind в прошлом году. Далее он описал утопическую эру «радикального изобилия», ставшего возможным благодаря богоподобному ИИ. Наибольшую известность компании DeepMind, пожалуй, принесло создание программы, которая обыграла чемпиона мира по игре в го Ке Цзе (Ke Jie) во время матча-реванша 2017 года. («В прошлом году, ИИ все ещё играл как человек» человеческую», - отметил Ке в то время. - «Но в этом году он словно стал богом игры в го» ( https://www.nytimes.com/2017/05/23/business/google-deepmind-alphago-go-champion-defeat.html ). В 2021 году алгоритм AlphaFold той же компании решил одну из величайших загадок биологии, предсказав форму каждого протеина, представленного в человеческом теле.

Тем временем компания OpenAI была основана в 2015 году в Сан-Франциско группой предпринимателей и специалистов в области информатики, в числе которых были Илья Суцкевер (Ilya Sutskever), Илон Маск (Elon Musk) и Сэм Альтман (Sam Altman), который сейчас является исполнительным директором компании. OpenAI был задуман как некоммерческий конкурент DeepMind ( https://openai.com/blog/introducing-openai ), хотя в 2019 году он стал коммерческой компанией.

В свои ранние годы компания создала системы, продемонстрировавшие свехчеловеческие способности в таких играх, как Dota 2. Игры служат естественной тренировочной площадкой для ИИ, позволяя протестировать его в цифровой среде с конкретными условиями победы. Компания OpenAI привлекла к себе более широкое внимание в прошлом году, когда её порождающий изображения ИИ-продукт Dall-E стал стремительно набирать популярность в сети. Несколько месяцев спустя модель ChatGPT от этой же компании тоже начала упоминаться в заголовках новостей.

Акцент на играх и чат-ботах, возможно, не позволил общественности разглядеть более серьезные последствия этой работы. Однако риски, связанные с богоподобным ИИ, были очевидны основателям с самого начала. В 2011 году главный научный сотрудник DeepMind Шейн Легг (Shane Legg) описал экзистенциальную угрозу, исходящую от ИИ, как «риск номер один в этом столетии, за которым на небольшом отдалении следует искусственно созданный биологический патоген» ( https://www.lesswrong.com/posts/No5JpRCHzBrWA4jmS/q-and-a-with-shane-legg-on-risks-from-ai ). Он добавил, что вымирание человечества, вызванное искусственным интеллектом, будет быстрым: «Если бы сверхразумная машина (или любой сверхразумный агент) решила избавиться от нас, я думаю, она сделала бы это довольно эффективно». В начале этого года Альтман сказал: «Плохой случай - и я думаю, что об этом важно сказать - это конец для всех нас» ( https://www.lesswrong.com/posts/PTzsEQXkCfig9A6AS/transcript-of-sam-altman-s-interview-touching-on-ai-safety ). С тех пор компания OpenAI опубликовала ряд меморандумов о том, как она предполагает управлять такими рисками.

Почему же эти организации так торопятся создать богоподобный ИИ, если существуют потенциально катастрофические риски? Судя по моим личным беседам со многими лидерами отрасли и по их публичным заявлениям, можно выделить три ключевых мотива. Они искренне верят в том, что успех УИИ окажет чрезвычайно положительное влияние на человечество. Они убедили себя, что если их организация будет контролировать богоподобный ИИ, то результат будет лучше для всех. И, наконец, вопрос славы.

Искушение стать первыми, кто создаст выдающуюся новую технологию, очень велико. Фриман Дайсон (Freeman Dyson) - физик-теоретик, работавший в проекте по запуску ракет в космос с помощью ядерных взрывов, - рассказывал об этом ( https://www.nytimes.com/2008/10/13/opinion/13iht-edooling.1.16905500.html ) в документальном фильме 1981 года «День после Троицы» (The Day after Trinity). «Сверкающее великолепие ядерных вооружений, оно неотразимо, если Вы подходите к ним как ученый», - сказал он. «Оно даёт людям иллюзию безграничной силы». В 2019 году в интервью газете «Нью-Йорк таймс» ( https://www.nytimes.com/2023/03/31/technology/sam-altman-open-ai-chatgpt.html ), Альтман (Altman) перефразировал отца атомной бомбы Роберта Оппенгеймера (Robert Oppenheimer), отметив: «Технологии появляются потому, что они возможны», а затем подчеркнул, что он родился в один день с Оппенгеймером.

Люди, которые сегодня находятся на переднем крае ИИ, являются одаренными. Многих из них я знаю лично. Однако часть проблемы заключается в том, что такие талантливые люди скорее соревнуются, чем сотрудничают. В частном порядке многие признаются, что они еще не придумали способ притормозить и скоординировать свои действия. Я полагаю, что они искренне приветствовали бы вмешательство правительств.

(Продолжение следует, см. http://rusrim.blogspot.com/2023/07/3.html )

Айан Хогарт (Ian Hogarth)

Источник: сайт издания Financial Times
https://www.ft.com/content/03895dc4-a3b7-481e-95cc-336a524f2ac2
https://longreads.com/2023/04/14/we-must-slow-down-the-race-to-god-like-ai/

Комментариев нет:

Отправить комментарий