Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 17 августа 2023 года на блоге компании Formtek.
2023 год ознаменовал начало эпохи искусственного интеллекта (ИИ), движимой невероятным потенциалом интеллектуального чатбота ChatGPT. Подобные порождающие (generative) языковые модели ИИ захватили наше воображение - поддерживая беседы и создавая новый контент, как никогда раньше. Однако по мере того, как мы внедряем эту передовую технологию, нам приходится также преодолевать её ограничения и решать критически-важные вопросы защиты персональных данных и управления данными.
Недавние инциденты подчеркнули срочную необходимость нормативного регулирования и мер безопасности в области ИИ. Например, компании Samsung непреднамеренно допустила утечку своих секретов через ChatGPT, вследствие того, что её сотрудники по незнанию раскрыли конфиденциальные корпоративные данные большим языковым моделям. Кроме того, киберпреступники быстро воспользовались появлением ChatGPT, ознакомив его с вредоносным контентом и учебными пособиями, имеющимися в «тёмном интернете».
Острой проблемой является защита персональных данных. Когда физические лица подписываются на инструменты ИИ, они необдуманно раскрывают персональные данные, что может иметь далеко идущие последствия. ИИ способен без согласия субъекта ПДн раскрывать его политические убеждения и интимные подробности, что потенциально может разрушить карьеру человека. Для обеспечения безопасного использования ИИ совершенно необходимы основательное нормативное регулирование и стандарты.
Ключом к решению многих проблем является стратегическое управление данными. Очень важное значение имеет прозрачность в отношении источников данных, используемых в больших языковых моделях. Нам необходимо знать, являются ли данные достоверными, непредвзятыми и законно собранными, поскольку полученные на их основе знания могут повлиять на формирование ключевых политик и планов организаций.
Ещё одним важным аспектом является разделение данных (data segregation). У разных поставщиков ИИ имеются различные политики защиты персональных данных и конфиденциальной информации, что подвергает организации риску непреднамеренного раскрытия данных. Крайне важно установить границы, обеспечивающие сохранение проприетарных данных внутри организации, при одновременном использовании преимуществ предварительно обученных моделей.
Кроме того, возникают вопросы о материальной ответственности и правах собственности на созданные ИИ произведения. Поскольку организации могут быть привлечены к ответственности за вызванные ИИ ошибки, становится крайне важным прояснение прав собственности и обеспечение прозрачности процесса порождения контента.
Чтобы сориентироваться в этих проблемах, крайне важно внедрить тактику управления данными. Это включает в себя создание рамочных концепций стратегического управления, понимание и защиту чувствительных (конфиденциальных) данных, тщательный анализ передаваемых ИИ-приложениям данных, обеспечение прозрачности источников данных, маркировку производных работ, облегчение переносимости данных и отслеживание отраслевых норм и правил.
ИИ-революция имеет огромный потенциал, однако мы должны подходить к ней с осторожностью. Внедрение надёжных методов стратегического и оперативного управления данными обеспечит защиту конфиденциальности и неприкосновенности частной жизни, снизит риски и раскроет истинную мощь ИИ. Давайте внедрять эту технологию с мудростью и дальновидностью, прокладывая путь к будущему, в котором ИИ будет стимулировать инновации, одновременно уважая наши персональные данные и неприкосновенность частной жизни.
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/generative-ai-navigating-data-management-challenges/
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий