Лаборатории искусственного интеллекта вышли из-под контроля - ученые

Текст:  , 31 марта 2023, 09:57
💬 0
👁 31238

Ученые считают, что системы искусственного интеллекта следует разрабатывать только тогда, когда есть уверенность, что их эффекты будут положительными, а риски управляемыми.

Системы искусственного интеллекта могут представлять серьезную опасность для общества. Об этом говорится на сайте некоммерческой организации Future of Life Institute.

Поэтому генеральный директор SpaceX, Tesla и Twitter Илон Маск, соучредитель Apple Стив Возняк и еще 1100 профессоров, инженеров и исследователей призывают приостановить эксперименты.

Авторы считают, что обучение и испытание более мощных систем искусственного интеллекта, чем GPT-4, должны быть прекращены по меньшей мере на полгода, пока не появятся общие протоколы безопасности. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами.

"Нам следует спросить себя: должны ли мы позволить машинам наполнить наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать всю работу, включая приносящее удовольствие? Должны ли мы развивать бесчеловечные умы, которые в итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?" - говорится в письме.

Ранее сообщалось, что корпорация Google представила инструмент на базе ИИ для создания текстов в Gmail и Workspace. 

Эксперты посчитали, сколько людей лишит работы искусственный интеллект

Новини від Корреспондент.net в Telegram. Підписуйтесь на наш канал https://t.me/korrespondentnet

ТЕГИ: Технологии эксперты искусственный интеллект