Расширяется дискуссия об «агентном ИИ» - что это такое, и готовы ли мы к нему? Два эксперта по вопросам касающегося ИИ права обсуждают его потенциал, а также его «подводные камни».
В опубликованной в издании «Национальное правовое обозрение» (The National Law Review) статье «Новое поколение ИИ: Агенты идут!» (The Next Generation of AI: Here Come the Agents! , см. https://natlawreview.com/article/next-generation-ai-here-come-agents ), написанной представителями «Конференции Седона» (The Sedona Conference® - это очень авторитетный американский некоммерческий правовой идейный центр, в основном занимающийся вопросами раскрытия в ходе судебных разбирательств и расследований сохраняемой в электронном виде информации (э-раскрытия) – Н.Х.) Тарой Эмори (Tara S. Emory) и Морой Гроссман, (Maura R. Grossman, J.D., Ph.D), авторы с самого начала высказывают свои опасения в отношении агентного ИИ, цитируя диалог из знаменитого фильма 1968 года «Космическая одиссея 2001» (2001: A Space Odyssey, https://www.imdb.com/title/tt0062622/?ref_=ttqu_ov_i ), где Дэйв Боумен (Dave Bowman) просит компьютер с искусственным интеллектом HAL 9000 «Открой двери отсека капсул, HAL». На что HAL отвечает: «Извините, Дэйв. Боюсь, я не могу этого сделать» [Поверить не могу поверить, что этому фильму уже почти 57 лет!].
Итак, что же такое «агентный ИИ»?
Агентный ИИ, также известный как «Большие модели деятельности» (Large Action Models, LAM), представляет собой следующее поколение искусственного интеллекта (ИИ). В отличие от современных систем ИИ, которые выполняют отдельные четко определенные задачи, агентные системы ИИ работают автономно с целью достижения высокоуровневых целей, принимая вытекающие одно из другого решения и выполняя действия в реальном мире.
Агентный ИИ способен взаимодействовать с различными ИИ-системами и обширными базами данных, независимо выполняя сложные задачи. Если, например, современный ИИ может сформировать план-график отпуска, то агентный ИИ будет бронировать рейсы, отели и экскурсии.
Здорово, не так ли? Ну, как сказать ...
Как отмечают Эмори и Гроссман, «агентный ИИ может значительно усугубить риски, присутствующие в современных ИИ-системах. Системы агентного ИИ могут связывать воедино решения и предпринимать действия в «реальном мире» на основе обширных наборов данных и поступающей в реальном времени информации. Перспектива того, что агентный ИИ будет служить людям подобным образом, отражает его огромный потенциал, но также несёт с собой риск «эффекта домино» при возникновении каскада ошибок, когда скорость развития событий такова, что человек не в состоянии оставаться в курсе происходящего, и когда выполняемые действия могут не соответствовать целям и этике людей. Например, агент по планированию отпуска, перед которым поставлена задача максимизировать получаемое клиентом удовольствие, может решить, что покупка запрещённых наркотиков в «теневом интернете» служит этим целям».
Думаете, авторы чересчур драматизируют ситуацию?
Что же, как отмечают авторы: «В одном примере, когда автономному ИИ были поставлены разрушительные цели, он самостоятельно приступил к исследованию оружия, использовал социальные сети для вербовки подписчиков на его аккаунты, заинтересованных в разрушительном оружии, и нашел способы обойти встроенные в его систему меры безопасности».
Звучит очень похоже на действия HAL, не так ли?
Авторы также отмечают, что «хотя полностью агентный ИИ по большому счёту пока всё ещё находится в стадии разработки, уже имеются реальные примеры, демонстрирующие его потенциал принимать ошибочные решения и усугублять их последствия, - включая аварии с участием беспилотных транспортных средств, действия вышедших из под контроля ИИ-ботов ценообразования и волатильность алгоритмической торговли».
Вот так! Достаточно ли это убедительно для Вас?
Что же, далее в своей публикации Эмори и Гроссман называют ряд конкретных проблем агентного ИИ. Не буду лишать Вас удовольствия познакомиться с их полным перечнем в оригинальной статье, и процитирую лишь одну из выявленных ими проблем:
Надзор и контроль со стороны человека
Принципы стратегического управления искусственным интеллектом часто опираются на надзор и контроль со стороны «человека, находящегося в контуре», когда люди ведут мониторинг выдаваемых ИИ рекомендаций и сохраняют за собой контроль над важными решениями. Агентные ИИ-системы способны оспаривать или даже отменять такой надзор двумя способами. Во-первых, их решения могут быть слишком многочисленными, быстрыми и насыщенными данными для осуществления человеком надзора в режиме реального времени. Хотя есть ряд идей, указывающих на потенциальную эффективность использования дополнительных алгоритмов для мониторинга агентов ИИ в качестве меры предосторожности, это не решит проблему соответствия требованиям стратегического управления в плане обеспечения надзора и контроля со стороны человека.
Во-вторых, по мере того, как ИИ разрабатывает всё более сложные стратегии, его процессы принятия решений и выполнения действий могут становиться всё более непрозрачными для наблюдателей-людей. Решение AlphaGo от Google добилось сверхчеловеческих результатов в игре «го», делая ходы, которые людям кажутся необъяснимыми и нерациональными. Автономные ИИ-системы могут продолжать эволюционировать, становясь всё более полезными, - но при этом также затрудняя реализацию процессов, в которые встроен осмысленный надзор и контроль со стороны человека.
Эмори и Гроссман по ходу обсуждения ряда стратегий решения проблем агентного ИИ, также отмечают, что: «Такие системы будут порождать уникальные риски, включая риски несоответствия человеческим ценностям и непреднамеренных последствий, что потребует переосмысления концепций стратегического управления искусственным интеллектом».
Я полностью согласен с такой точкой зрения. Не уверен, что мы готовы к тому, чтобы агенты ИИ выполняли большинство действий без человеческого контроля. С большой силой приходит большая ответственность [Вольтер сказал это первым. Sacré bleu! :)].
Вы можете познакомиться со статьей Эмори и Гроссман по адресу
https://natlawreview.com/article/next-generation-ai-here-come-agents .
Итак, что Вы думаете о этом? Как Вы полагаете, настало ли время для агентного ИИ? Пожалуйста, поделитесь любыми имеющимися у Вас комментариями, и/или скажите, если хотите узнать больше по какой-либо конкретной теме.
Дуг Остин
Источник: блог eDiscovery Today
https://ediscoverytoday.com/2025/01/09/agentic-ai-is-coming-are-we-ready-for-it-artificial-intelligence-best-practices/
Комментариев нет:
Отправить комментарий