Атака Meta на конфиденциальность должна служить предупреждением против искусственного интеллекта

Meta's attack on privacy should serve as a warning against artificial intelligence

В мире, все больше зависящем от искусственного интеллекта, блокчейн может сыграть критическую роль в предотвращении распространения и нормализации грехов, совершаемых приложениями, подобными Facebook.

Платформы искусственного интеллекта, такие как ChatGPT и Bard от Google, уже стали популярными и уже были обвинены в разжигании политического разделения из-за своих предубеждений. Как предсказано в популярных фильмах, таких как “Терминатор”, “Матрица” и недавно “Миссия: Невыполнима – Часть Первая. Переоценка”, уже стало ясно, что искусственный интеллект является диким животным, с которым нам, вероятно, будет трудно справиться.

От кампаний дезинформации, убийственных дронов и полного уничтожения индивидуальной конфиденциальности до потенциального преобразования глобальной экономики и, вероятно, самой цивилизации, искусственный интеллект может изменить мир. В мае 2023 года мировые технологические лидеры написали открытое письмо, которое стало заголовком новостей, предупреждая, что опасности технологии искусственного интеллекта могут быть сравнимы с ядерными оружиями.

Связано: Подруги, убитые дети, убийственные андроиды – проклят ли искусственный интеллект?

Одним из наиболее значительных опасений, связанных с искусственным интеллектом, является отсутствие прозрачности, касающейся его обучения и программирования, особенно в моделях глубокого обучения, которые могут быть сложными для эксплуатации. Поскольку для обучения моделей искусственного интеллекта используются конфиденциальные данные, они могут быть подвержены манипуляциям, если данные станут скомпрометированы.

В будущем блокчейн будет широко использоваться вместе с искусственным интеллектом для повышения прозрачности, отчетности и аудита, касающихся процесса принятия решений.

Chat GPT будет насмехаться над Иисусом, но не над Мухаммедом pic.twitter.com/LzMXBcdCmw

— E (@ElijahSchaffer) 2 сентября 2023 года

Например, при обучении модели искусственного интеллекта с использованием данных, хранящихся в блокчейне, можно обеспечить подлинность и целостность данных, предотвращая несанкционированные модификации. Заинтересованные стороны могут отслеживать и проверять процесс принятия решений, записывая параметры обучения модели, обновления и результаты проверки в блокчейне.

С помощью такого использования блокчейна он будет играть ведущую роль в предотвращении непреднамеренного злоупотребления искусственным интеллектом. Но что насчет преднамеренного злоупотребления? Это гораздо более опасный сценарий, с которым, к сожалению, мы, вероятно, столкнемся в ближайшие годы.

Даже без искусственного интеллекта, централизованные Большие Технологии исторически помогали и содействовали поведению, приносящему прибыль путем манипулирования как отдельными лицами, так и демократическими ценностями, и это стало известно после скандала с Cambridge Analytica в Facebook. В 2014 году приложение “Thisisyourdigitallife” предлагало платить пользователям за прохождение тестов на личность, для чего требовалось разрешение на доступ к их профилю в Facebook и профилям их друзей. По сути, Facebook позволил Cambridge Analytica шпионить за пользователями без их разрешения.

Результат? Два исторические кампании психологического воздействия на массы, которые оказали сильное влияние на результаты президентских выборов в Соединенных Штатах и референдум о членстве Великобритании в Европейском Союзе в 2016 году. Выучила ли Meta (ранее Facebook) уроки из своих ошибок? Похоже, что нет.

В июле Meta представила свое последнее приложение – Threads. Называемое конкурентом Twitter от Илона Маска, оно собирает обычные данные, собираемые Facebook и Instagram. Однако, подобно TikTok, когда пользователи Threads регистрировались, они непреднамеренно давали Meta доступ к местоположению GPS, камере, фотографиям, IP-информации, типу устройства и сигналам устройства. Это стандартная практика Web2, которую оправдывают, говоря, что “пользователи согласились с условиями и положениями”. На самом деле, на прочтение каждой политики конфиденциальности каждого используемого приложения стандартным интернет-пользователем потребуется в среднем 76 рабочих дней. В итоге Meta теперь имеет доступ к практически всему на телефонах более 150 миллионов пользователей.

И вот появляется искусственный интеллект. Если последствия скандала Cambridge Analytica вызывали опасения, то представим ли мы себе последствия сочетания этой интенсивной слежки и божественного интеллекта искусственного интеллекта?

Предсказуемым решением здесь является блокчейн, но решение не такое простое.

Связано: Абсурдная мания по поводу искусственного интеллекта подходит к концу

Одной из основных опасностей искусственного интеллекта является возможность сбора данных и их использования для оружия. В отношении социальных медиа технологий технология блокчейна может потенциально усилить конфиденциальность данных и контроль над ними, что может помочь смягчить практику сбора данных Больших Технологий. Однако она не сможет полностью “остановить” Большие Технологии от получения чувствительных данных.

Чтобы действительно защититься от преднамеренных опасностей искусственного интеллекта и предотвратить будущие ситуации подобные Cambridge Analytica, необходимы децентрализованные, желательно основанные на блокчейне, платформы социальных медиа. Они по своей природе снижают концентрацию пользовательских данных в одной центральной сущности, минимизируя потенциал массового наблюдения и кампаний дезинформации искусственного интеллекта.

Просто говоря, благодаря технологии блокчейн у нас уже есть инструменты, необходимые для защиты нашей независимости от искусственного интеллекта как на индивидуальном, так и на национальном уровне.

Незадолго после подписания открытого письма правительствам о рисках искусственного интеллекта в мае, генеральный директор OpenAI Сэм Альтман опубликовал блог, в котором предложил несколько стратегий ответственного управления мощными системами искусственного интеллекта. Они включали в себя сотрудничество между основными разработчиками искусственного интеллекта, более глубокое изучение больших языковых моделей и создание глобальной организации по безопасности искусственного интеллекта.

Хотя эти меры являются хорошим началом, они не решают проблему систем, которые делают нас уязвимыми перед искусственным интеллектом, а именно, централизованными сущностями Web2, такими как Meta. Чтобы действительно защититься от искусственного интеллекта, необходимо срочно продвигать разработку технологий на основе блокчейна, в основном в области кибербезопасности, а также для создания настоящей конкурентной экосистемы децентрализованных приложений социальных медиа.

We will continue to update BiLee; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

мнение

Ваша финансовая конфиденциальность под угрозой как увеличиваются государственные атаки на Биткоин

Новые законодательные усилия по консолидации финансовой власти и юридические атаки на пользователей Bitcoin демонстри...

мнение

Играм нужна децентрализованная случайность, чтобы быть справедливыми

Имеет ли ваш генератор случайных чисел достаточно случайности? Безопасен ли он от вмешательства? Децентрализован ли о...

мнение

Криптоаналитики могут что-то извлечь из бейсбола

Поиск будущих звезд криптовалюты среди молодых перспектив.

мнение

Приняв Биткойн, мой любимый музыкальный фестиваль мог бы обеспечить свое долгосрочное будущее

После многих лет посещения фестиваля в Гластонбери, один британский биткоинер считает, что пришло время для этого фла...

мнение

Интерес криптовалют к ставкам

Процентные ставки в США снова растут, но цифровые активы, кажется, не подвержены влиянию.

мнение

Поскольку фиатная валюта Зимбабве снова столкнулась с крахом, принятие биткоина готово продолжиться.

Последние усилия резервного банка Зимбабве по укреплению местной валюты свидетельствуют о возвращении неукротимой инф...