Развитие многоликого ИИ: где опасность во время "идеального шторма"
Вроде бы ИИ позволит людям работать всего три дня в неделю и жить до ста лет. Но ChatGPT уже научился самостоятельно обходить ограничения, предупреждают ученые. Как будет влиять ИИ на мир и возможен ли контроль?
Оправдан ли оптимизм Гейтса?
Благодаря развитию искусственного интеллекта (ИИ) человечество придет к трехдневной рабочей неделе - считает миллиардер Билл Гейтс, один из основателей Microsoft. Правда, некоторых работников при этом придется переучивать. И этим уже должны заниматься правительства и частные компании.
Если в конце концов появится общество, в котором людям придется работать только по три дня в неделю, это вполне нормально, - подчеркнул Гейтс в интервью для подкаста What Now? По его словам, как-то наступит время, когда людям "не придется так много работать", поскольку машины будут производить "всю еду и прочее".
В общем, Гейтс считает, что влияние ИИ на человечество не окажется таким драматичным, как промышленная революция. Однако точно должно быть таким же выдающимся и революционным, как появление в свое время персональных компьютеров.
Впрочем, он осознает и риски ИИ, включая "дезинформацию и дипфейки, угрозы безопасности, изменения на рынке труда и влияние на образование", как отметил ранее в личном блоге.
"Но в чем точно можно быть уверенным, так это в том, что будущее искусственного интеллекта не такое мрачное, как думают некоторые, и не такое радужное, как думают другие. Риски реальны, но я оптимистичен, что ими можно управлять", - заметил миллиардер.
Однако идея по сокращению времени труда Гейтсу не принадлежит. О возможности перехода на трехдневную рабочую неделю с развитием ИИ говорит и глава JPMorgan Джейми Даймон.
Впрочем, не все полны такого же оптимизма. Как сообщило издание The Guardian, группа старших экспертов в преддверии первого саммита по безопасности ИИ в ноябре предупредила: мощные системы искусственного интеллекта угрожают социальной стабильности. Компании, занимающиеся искусственным интеллектом, должны нести ответственность за ущерб, причиненный их продуктами.
Кстати, на саммит безопасности по ИИ собирались пригласить, в частности, Джеффри Гинтона и Йошуа Бенгио, двух из трех "крестных родителей искусственного интеллекта". При этом известно, что Гинтон уволился из Google из-за "экзистенциального риска", создаваемого цифровым интеллектом. А профессор информатики Монреальского университета Бенджио присоединился к нему и тысячам других экспертов, подписав письмо и призывая к мораторию на гигантские эксперименты по развитию ИИ.
Они предупреждают: небрежно разработанные системы искусственного интеллекта угрожают "усилить социальную несправедливость, подорвать наши профессии, взорвать социальную стабильность, способствовать широкомасштабной преступной или террористической деятельности и ослабить наше общее понимание реальности, которая является основой общества".
Переход ИИ "на сторону зла"
Участники первого в истории AI Safety Summit по безопасности в Великобритании выделили два основных риска ИИ: потенциальное умышленное неправильное использование (например, когда системы ИИ применяют для мошеннических действий); непреднамеренные проблемы контроля (например, проблемы в работе системы ИИ, модерирующей комментарии на веб-сайте). Особое внимание этим рискам уделяется в сфере кибербезопасности и борьбы с дезинформацией.
Как пояснила системный аналитик Наталья Глоба, для оценки рисков ИИ и его возможного влияния на войну в Украине и гипотетическую Третью мировую нужно вспомнить понятие "идеального шторма".
"Мы должны оценивать весь контекст событий вокруг нас. Представим себе, что Украина - некий кораблик, движущийся сам по себе. И вот он попадает в сильный шторм, на кораблик нападают пираты. А те, на кого мы надеялись - где-то недалеко авианосец Америка, далеко авианосец Китай и руководитель пиратской флотилии Россия - тоже попадают в шторм, когда нужно заботиться о собственной безопасности. У нас старенькое судно, дырявое снаряжение, но оказалась отчаянная команда. Но какова наша основная проблема? Это идеальный шторм. Задача, стоящая перед нами - отбиться от пиратов и выстоять в идеальном шторе. Для этого нужно понимать, что это за шторм, а не строить стратегию только поборьбе с пиратами", - отметила она в интервью для UKRLIFE с Людмилой Немырей.
По словам аналитика, первый из супетрендов ныне - это переход к цифровой эпохе. Второй - изменение климатических и биологических условий существования человечества. Третий - эпидемия ревизионизма. Однако остановимся на первом пункте.
В меньшей степени от информационного цунами страдают автократические режимы и диктатуры, продолжила она. И в очень большой - демократические, ибо в последнее время здесь плохо работает "защита от дурака",то есть политика, основанная на доказательствах, а не на чьем-то представлении (Трамп - тому яркий пример). И вот здесь, в частности, включается опасность ИИ.
"Во всей красе" возникла история с израильской войной, это разрушение права: каждый верит в то, во что ему хочется верить. Вываливается куча разных фактов, но они преимущественно игнорируются сторонами.Сейчас это просто тотальное явление. Кто поддерживает Палестину в США? Профессора-леваки, люди, способные отличить факт от представления. Но для них больше значит собственное представление. Политика, не основанная на доказательствах, очень опасна", - сказала ученый.
На этом фоне более угрожающим выглядит создание с помощью ИИ дипфейков высокого качества (пока таких нет) - которые будут очень похожи на реальность и будут использоваться нечистыми на руку людьми.
"В этом году мы уже имеем генеративно-лингвистические модели ИИ. К гадалке не ходи, что в следующем избирательном году они позволят людям изменить реальность до неузнаваемости: эти модели могут создавать видеоряд, который сейчас еще легко отличается от оригинала. Но большой вопрос: это еще намеренно и могут ли эти модели создать видеоряд с человеком, который практически не отличается от реальности", - предупредила она.
Какие меры будут принимать
Для преодоления негативных последствий развития ИИ участники AI Safety Summit предлагают миру осуществлять ряд мер. Это, в частности, сотрудничество для преодоления рисков ИИ и содействие тому, чтобы его проектировали, разрабатывали, запускали и использовали безопасным способом (когда ИИ ориентирован на человека, надежный и ответственный). Это касается и государственных услуг, таких как здравоохранение и образование, продовольственная безопасность, наука, энергетика, биоразнообразие и климат.
Разработчики мощных и потенциально вредных систем ИИ должны обеспечить прозрачность и подотчетность планов мониторинга, разрешить измерения и смягчение вредных последствий.
Рекомендуются и некоторые политические решения: повышение прозрачности игроков рынка систем ИИ, установление показателей оценки, формирование инструментов для проверки безопасности, содействие развитию возможностей государственного сектора и научных исследований в этой сфере.
Чтобы реализовать задачи, определенные в Декларации саммита, государства-члены будут сотрудничать для содействия научным исследованиям безопасности ИИ - проводить международные форумы, посвященные вопросам безопасности. Такое сотрудничество не только улучшит контроль, но и должно быть направлено на формирование политики укрепления развития ИИ в помощь развивающимся странам.
Государства могут классифицировать риски ИИ на основе национальных обстоятельств и применимой правовой базы. Однако участники саммита отметили необходимость общих принципов и кодексов поведения.
"Мы должны следовать мировым трендам развития инноваций. Когда речь идет о кибербезопасности, ИИ может как значительно повышать защищенность систем, так и упрощать процесс проведения кибератак и делать их более успешными. Важно найти баланс между регулированием этой технологии, при этом не останавливая ее развитие", - отметил заместитель главы Минцифры Георгий Дубинский.
Ирина Носальская