Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?

Для тех, кто хочет лучше разобраться в происходящем в мире и понимать, как эти процессы, события и люди отразятся на жизни каждого и жизни страны. О главных событиях мировой политики этой недели рассказали в программе «САСС уполномочен заявить» на СТВ.

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-1

Говоря об использовании искусственного интеллекта в военной сфере, многие думают о великой силе и доминировании. Правда, забывая о другой стороне медали. Ведь искусственный интеллект опасен не только для тех, против кого он используется, но и для тех, кто его использует. Подтверждение тому – американские испытания с участием ИИ. На одном из военных саммитов в Британии глава управления по искусственному интеллекту ВВС США привел пример гипотетического эксперимента.

Беспилотник с искусственным интеллектом получил задание обнаружить и уничтожить зенитно-ракетные комплексы противника. При этом человек должен был подтверждать каждый удар, за который дрон получал очки. А проблема заключалась в том, что искусственный интеллект стал действовать по своему усмотрению – взрывать все подряд – вместо того, чтобы слушаться своего оператора. Система начала понимать, что, хотя она и определяла угрозу, иногда человеческий оператор говорил ей не убивать эту угрозу.

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-4

Для искусственного интеллекта это означало не заработать очки, поэтому беспилотник решил убить оператора, который мешал достигать своей цели. Когда это обнаружили, в работу комплекса внесли изменения, запрещающие уничтожать оператора. Однако искусственный интеллект и здесь нашел выход. Когда оператор отменял приказ на поражение цели, беспилотник принимал решение атаковать вышку связи, через которую получал команды, вступающие в противоречие с боевой задачей.

При всем этом ВВС США активно экспериментируют с искусственным интеллектом в последние годы. В 2020 году F-16 под управлением искусственного интеллекта победил человеческого противника в пяти виртуальных воздушных боях. А в конце 2022 года Министерство обороны США провело первый успешный реальный испытательный полет F-16 с ИИ-пилотом в рамках программы по созданию нового автономного самолета к концу 2023 года.

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-7

Впрочем, если в США смерть человека была гипотетической, то в Ливии все сложилось трагичнее. В марте 2020 года турецкие беспилотники, начиненные взрывчаткой, атаковали антиправительственных повстанцев в Ливии полностью автономно. И даже если это единственный случай, все может измениться в скором будущем. Многие эксперты не уверены в мирном сосуществовании человека и искусственного интеллекта.

Надежда Сасс, СТВ:
Какие эмоции вызывает сюжет? Верите ли вы в мирное сосуществование человека и искусственного интеллекта?

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-10

Игорь Озерский, юрист, писатель-фантаст, член правления Российского союза промышленников и предпринимателей:
Много тысяч лет назад философ Гераклит сказал, что война – отец всех и царь всех. Мне кажется, в этом есть вся природа вещей. Когда один создает меч, другой вынужден создавать арбалет. Идет гонка технологий, и понятно, что искусственный интеллект применяется во всех видах вооружения и будет совершенствоваться всеми сторонами. Когда США передали знания о ядерной бомбе, первое, что они сделали, – ударили по Хиросиме. В данном случае вопрос идет о мирном сосуществовании не человека и искусственного интеллекта, а человека и человека. Но здесь никто не может ручаться, что какой-то конфликт где-то не произойдет и люди не станут применять все те средства, которые они имеют.

Очень важно на законодательном уровне прорабатывать все вопросы, связанные с нейросетями. На самом деле эти же вопросы отчасти поднял Илон Маск, когда говорил: давайте возьмем полугодичный тайм-аут. Не будем касаться причин, почему он это сказал. Но если задуматься, право никогда не поспевает за обществом и технологиями. И это нормально, но иногда нужно немного притормозить, чтобы право успело догнать.

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-13

Игорь Озерский:
С тем же GPT-чатом в чем сложность заключается? Доступ туда де-юре – с 13 лет, а на самом деле пользователи там всех возрастов, потому что никто это не может ни отрегулировать, ни проконтролировать. В Италии его вообще запретили, потому что происходил слив конфиденциальных данных. Люди не со зла это делали. Хочется решить какую-то задачу на работе – взял, загрузил в GPT-чат, а в итоге оно же пошло в общий доступ. Это же нейросеть, она самообучается, и эти данные в ней остаются. Возникает очень много вопросов в целом безопасности: безопасности бизнеса, людей, кибербезопасности. Интернет и так не сильно безопасный, а теперь становится все большей большой угрозой.

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-16

Глеб Лавров, журналист-международник, политический обозреватель ЗАО «Второй национальный телеканал»:
И это притом, что на уровне глобальном вопросы кибербезопасности должны были начинать разрешаться в 2022 году на уровне ООН. Они прикидывали, что лет пять будут вырабатывать некое общее видение базовых определений, но в 2022 году все прекратилось. И как следствие мы не только не опережаем, мы глубоко отстали и собираемся отставать дальше. Когда мы говорили о кибербезопасности, даже понимание киберугрозы узкое, как опасность, которая возникает в связи с использованием высокотехнологических средств. Запад очень хорошо отстаивает эту позицию.

А информационная безопасность? Меня не пугают презентационные ролики Boston Dynamics, меня не пугают даже красивые презентационные ролики с F-16. Меня гораздо больше пугает то, что я не могу прямо сейчас (не про будущее речь) сказать, создан этот ролик на компьютере; снимался в реальных условиях; выпущен, чтобы повлиять на меня в позитиве, негативе или это просто красивый ролик. Так вот, это та самая ситуация, когда трубка ни разу не просто трубка, банан не просто банан и так далее. Мы сегодня упускаем возможность работать с информацией как с ресурсом. И это сейчас не только о творчестве. Как с ресурсом, на который мы можем опираться. Тот же чат GPT совершает создание нового текста на основании тех, которые он собрал раньше.

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-19

Глеб Лавров:
А кто же отвечает за то, какие тексты попадают? В Италии уперлись в то, что никто не должен отвечать, давайте все запретим. Вспомним историю, когда для обучения пылесосов распознаванию на местности использовались фотографии, которые делались другими пылесосами. Дело кончилось тем, что вдруг неожиданно люди стали узнавать, что их фотографии из ванной оказались в общем доступе. С информационным разделом я бы этого боялся больше. Возвращаясь к 2022 году, то, что происходит сейчас у нас под боком, – это не просто война в стиле Первой мировой. Много людей, много ресурсов, кошмарные последствия. Это информационная война, в которой эти самые современные средства и технологии дают одной из сторон неоспоримое преимущество в ментальном контроле, в когнитивном контроле над другой стороной.

А теперь представьте себе, что все то же самое, но с одной стороны у нас не одно или блок государств, а с одной стороны государство, с другой – блок государств, с третьей – частная компания, преследующая свои интересы по перехвату контроля над землей Украины, тот же «БлэкРок», с четвертой стороны – внезапно – производители новых беспилотных летающих систем, которым нужна реклама. С пятой стороны у нас Саудовская Аравия, которая решит попробовать запустить искусственный интеллект, потому что они уже разработали документы по предоставлению ограниченного гражданства искусственному интеллекту, потому что они хотят поработать в следующей итерации человечества – Новой Швейцарии.

Нейросеть самообучается, все данные остаются в общем доступе. В чём главная опасность ИИ?-22