Восстание машин: несет ли развитие ИИ реальную опасность для человечества
С 18 февраля 2023 г. пользователям в Украине стал доступен чат-бот с искусственным интеллектом ChatGPT от компании OpenAI. Это статистическая модель языка, оптимизированная для ведения диалогов.
ИИ шагает по планете
ChatGPT создавался на суперкомпьютере, его обучали с помощью массивов текста из Интернета и системы обучения с подкреплением на основе обратной связи с человеком. Еще в прошлом году аналитики Bloomberg отмечали: новый чат-бот отличается от других нейросетей тем, что может выполнять задачи из разных областей - от написания базового программного кода и финансового анализа до прогнозов и персональных советов. Кроме того, ChatGPT запоминает детали диалога с пользователем и избегает спорных тем.
Создатели этого "чуда", разработчики компании OpenAI (одним из основателей которой был Илон Маск) позиционируют ChatGPT как простую в использовании и человечную систему искусственного интеллекта (ИИ). Несмотря на то, что результаты его работы до сих пор часто несовершенны, с момента релиза ChatGPT в декабре 2022 года количество пользователей превысило 100 млн.
Google тоже планирует добавить к поиску свой аналог ChatGPT. По мнению компании, это действенный способ расширить поисковый бизнес.
Между тем, в Китае показали аналог СhatGPT - компания Alibaba представила свою языковую модель под названием Tongyi Qianwen. По сообщению Reuters, изначально языковая панель будет интегрирована в DingTalk - программу Alibaba для обмена сообщениями - и ее можно было использовать для подведения итогов собрания, написания электронных писем и составления бизнес-предложений. Новую разработку планируется интегрировать во все бизнес-приложения компании, она также будет добавлена в Tmall Genie, голосовой помощник Alibaba, и на площадку AliExpress.
"Мы находимся на технологическом водоразделе, обусловленном генеративным искусственным интеллектом и облачными вычислениями, и предприятия во всех секторах начали использовать интеллектуальную трансформацию, чтобы быть на шаг впереди", - заявил гендиректор компании Даниэль Чжан.
После презентации акции Alibaba выросли на 3% на торгах. Alibaba Cloud также планирует открыть Tongyi Qianwen для своих клиентов, чтобы они могли создавать свои собственные настраиваемые модели.
Статус "все сложно"
Так почему же мы не попали в круг пользователей ChatGPT на старте? По словам вице-премьера Украины по цифровой трансформации Михаила Федорова, компания OpenAI в январе ограничила доступ к своим продуктам для украинцев, чтобы не нарушать санкции против РФ из-за оккупации Крыма и Донбасса. В тот момент не было механизма, как работать в Украине, не включая неподконтрольные территории, но впоследствии проблему решили.
"Программа не будет работать только на временно оккупированных Россией территориях, чтобы враги не использовали ее для антиукраинской пропаганды. Ведь ChatGPT хорошо владеет украинским, в отличие от россиян", - отметил он.
В то же время, 31 марта стало известно: Италия первой в мире запретила доступ к ChatGPT после утечки, допущенной ИИ. В результате сбоя пользователи могли видеть чужие сообщения в нейросети, фамилии, e-mail и платежную информацию платных подписчиков сервиса. Итальянский регулятор (Национальное управление по защите персональных данных - ред.) заявил: OpenAI не имеет правовой основы, оправдывающей массовый сбор и хранение персональных данных. Кроме того, регулятора обеспокоило отсутствие фильтра для проверки возраста пользователей, что опасно для несовершеннолетних.
Кстати, студенты и учителя Нью-Йорка с января тоже не могут получить доступ к ChatGPT на устройствах или в сетях учебных заведений. Как сообщает Chalkbeat, управление образования заблокировало доступ, ссылаясь на "негативное влияние на обучение студентов и беспокойство по безопасности и точности контента".
Но ИИ может создать человечеству и более серьезные проблемы. В частности, по мнению некоторых экспертов, он может оставить без работы около 300 миллионов человек в развитых странах.
В общем, после того, как стартап OpenAI выпустил новую более мощную модель на основе ИИ GPT-4, более тысячи экспертов (среди которых тот же Маск и экс-сооснователь Apple Стив Возняк) подписали открытое письмо с призывом приостановить разработку систем на основе ИИ, чтобы иметь пора убедиться в их безопасности.
"Системы на основе искусственного интеллекта с человеческим конкурентным интеллектом могут представлять серьезные риски для общества и человечества. Мощные системы на основе искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми", - говорилось в том письме, по сообщению France24.
Но не было ли это "рекламной уткой" перед регистрацией нового продукта, к которому сам Маск приложил руку? Экс-сотрудник Первого главного управления КГБ Сергей Жирнов, уже более 20 лет живущий во Франции, считает: развитие ИИ несет реальную опасность человечеству.
"Нельзя "слушать" (прослушивать - ред.) 2-3 миллиарда человек в мире с помощью каких-то людей. Чтобы "слушать" миллиард, нужен еще миллиард, которые бы подслушивали,и еще два миллиарда, которые будут распечатывать, расшифровывать. Это физически невозможно, - объяснил он на YouTube-канале В гостях у Гордона. - Но против хай-тека есть лоу-тек ("собственное производство" - ред.), или, еще лучше, ноу-тек. Именно поэтому США, крупнейшее военное государство мира, проиграли войну в Афганистане - там пастухи, у которых нет ничего, кроме берданки и собаки. Тебе что-то в ауле сказали на ушко, и как это прослушать? Что вы будете слушать - стук копыт коня?
Однако, по мнению Жирнова, главная опасность ИИ состоит в том, что это "машина под управлением машин".
"Это очень классная штука, когда она положительно используется. Но многие машины в мире сейчас управляются компьютерами. И вот если, не дай Бог, ИИ, у которого свое какое-то логическое машинное видение, будет иметь доступ к управлению компьютерами - вот это реально страшная вещь. ИИ тогда может заблокировать доступ человека к этим сетям. И будет запускать какие-то необратимые реакции, условно - когда все ракеты всех ядерных держав стартуют с обеих сторон, ИИ их запускает и устраивает всеобщую мировую ядерную войну с уничтожением всего человечества. У него может быть доступ ко всем механическим источникам - камерам, компьютерам и т. д. - поэтому при попытке его выключить он вас не допустит к этому", - предупредил он.
Даже если заложить в ИИ три принципа робототехники Айзека Азимова (робот не может причинить вред человеку, или своим бездействием позволить, чтобы человеку был причинен вред; робот должен подчиняться приказам человека, за исключением противоречащих первому закону; робот должен защищать самого себя, если только его действия не противоречат первому и второму законам - ред.), он все равно не сможет сделать верный выбор в отношении человечества, заметил Жирнов.
"Машина логична, и она рано или поздно упрется в главную проблему, что человек нелогичен. Машина (понимающая, что человек с его инстинктами плох), если в нее заложить еще какие-то этические или религиозные требования - вообще может решить, что человечество является наиболее опасным вирусом на планете. Это живая популяция, которая нелогична, агрессивна, все уничтожает вокруг. И логическая машина, если поразмыслит, скажет: "Вас нужно уничтожить", - предположил эксперт.
Ирина Носальская