Атака Meta на конфиденциальность должна служить предупреждением против искусственного интеллекта
Meta's attack on privacy should serve as a warning against artificial intelligence
В мире, все больше зависящем от искусственного интеллекта, блокчейн может сыграть критическую роль в предотвращении распространения и нормализации грехов, совершаемых приложениями, подобными Facebook.
Платформы искусственного интеллекта, такие как ChatGPT и Bard от Google, уже стали популярными и уже были обвинены в разжигании политического разделения из-за своих предубеждений. Как предсказано в популярных фильмах, таких как “Терминатор”, “Матрица” и недавно “Миссия: Невыполнима – Часть Первая. Переоценка”, уже стало ясно, что искусственный интеллект является диким животным, с которым нам, вероятно, будет трудно справиться.
От кампаний дезинформации, убийственных дронов и полного уничтожения индивидуальной конфиденциальности до потенциального преобразования глобальной экономики и, вероятно, самой цивилизации, искусственный интеллект может изменить мир. В мае 2023 года мировые технологические лидеры написали открытое письмо, которое стало заголовком новостей, предупреждая, что опасности технологии искусственного интеллекта могут быть сравнимы с ядерными оружиями.
Связано: Подруги, убитые дети, убийственные андроиды – проклят ли искусственный интеллект?
- Назад в школу поддержка следующего поколения инвесторов
- Цена биткоина может достигнуть отметки в 46 тысяч долларов к моменту сокращения награды за майнинг в 2024 году — Интервью с Филбфилбом
- Крипто-кредиторы вызвали крипто-заражение в прошлом году. Как отрасль восстанавливается?
Одним из наиболее значительных опасений, связанных с искусственным интеллектом, является отсутствие прозрачности, касающейся его обучения и программирования, особенно в моделях глубокого обучения, которые могут быть сложными для эксплуатации. Поскольку для обучения моделей искусственного интеллекта используются конфиденциальные данные, они могут быть подвержены манипуляциям, если данные станут скомпрометированы.
В будущем блокчейн будет широко использоваться вместе с искусственным интеллектом для повышения прозрачности, отчетности и аудита, касающихся процесса принятия решений.
Chat GPT будет насмехаться над Иисусом, но не над Мухаммедом pic.twitter.com/LzMXBcdCmw
— E (@ElijahSchaffer) 2 сентября 2023 года
Например, при обучении модели искусственного интеллекта с использованием данных, хранящихся в блокчейне, можно обеспечить подлинность и целостность данных, предотвращая несанкционированные модификации. Заинтересованные стороны могут отслеживать и проверять процесс принятия решений, записывая параметры обучения модели, обновления и результаты проверки в блокчейне.
С помощью такого использования блокчейна он будет играть ведущую роль в предотвращении непреднамеренного злоупотребления искусственным интеллектом. Но что насчет преднамеренного злоупотребления? Это гораздо более опасный сценарий, с которым, к сожалению, мы, вероятно, столкнемся в ближайшие годы.
Даже без искусственного интеллекта, централизованные Большие Технологии исторически помогали и содействовали поведению, приносящему прибыль путем манипулирования как отдельными лицами, так и демократическими ценностями, и это стало известно после скандала с Cambridge Analytica в Facebook. В 2014 году приложение “Thisisyourdigitallife” предлагало платить пользователям за прохождение тестов на личность, для чего требовалось разрешение на доступ к их профилю в Facebook и профилям их друзей. По сути, Facebook позволил Cambridge Analytica шпионить за пользователями без их разрешения.
Результат? Два исторические кампании психологического воздействия на массы, которые оказали сильное влияние на результаты президентских выборов в Соединенных Штатах и референдум о членстве Великобритании в Европейском Союзе в 2016 году. Выучила ли Meta (ранее Facebook) уроки из своих ошибок? Похоже, что нет.
В июле Meta представила свое последнее приложение – Threads. Называемое конкурентом Twitter от Илона Маска, оно собирает обычные данные, собираемые Facebook и Instagram. Однако, подобно TikTok, когда пользователи Threads регистрировались, они непреднамеренно давали Meta доступ к местоположению GPS, камере, фотографиям, IP-информации, типу устройства и сигналам устройства. Это стандартная практика Web2, которую оправдывают, говоря, что “пользователи согласились с условиями и положениями”. На самом деле, на прочтение каждой политики конфиденциальности каждого используемого приложения стандартным интернет-пользователем потребуется в среднем 76 рабочих дней. В итоге Meta теперь имеет доступ к практически всему на телефонах более 150 миллионов пользователей.
И вот появляется искусственный интеллект. Если последствия скандала Cambridge Analytica вызывали опасения, то представим ли мы себе последствия сочетания этой интенсивной слежки и божественного интеллекта искусственного интеллекта?
Предсказуемым решением здесь является блокчейн, но решение не такое простое.
Связано: Абсурдная мания по поводу искусственного интеллекта подходит к концу
Одной из основных опасностей искусственного интеллекта является возможность сбора данных и их использования для оружия. В отношении социальных медиа технологий технология блокчейна может потенциально усилить конфиденциальность данных и контроль над ними, что может помочь смягчить практику сбора данных Больших Технологий. Однако она не сможет полностью “остановить” Большие Технологии от получения чувствительных данных.
Чтобы действительно защититься от преднамеренных опасностей искусственного интеллекта и предотвратить будущие ситуации подобные Cambridge Analytica, необходимы децентрализованные, желательно основанные на блокчейне, платформы социальных медиа. Они по своей природе снижают концентрацию пользовательских данных в одной центральной сущности, минимизируя потенциал массового наблюдения и кампаний дезинформации искусственного интеллекта.
Просто говоря, благодаря технологии блокчейн у нас уже есть инструменты, необходимые для защиты нашей независимости от искусственного интеллекта как на индивидуальном, так и на национальном уровне.
Незадолго после подписания открытого письма правительствам о рисках искусственного интеллекта в мае, генеральный директор OpenAI Сэм Альтман опубликовал блог, в котором предложил несколько стратегий ответственного управления мощными системами искусственного интеллекта. Они включали в себя сотрудничество между основными разработчиками искусственного интеллекта, более глубокое изучение больших языковых моделей и создание глобальной организации по безопасности искусственного интеллекта.
Хотя эти меры являются хорошим началом, они не решают проблему систем, которые делают нас уязвимыми перед искусственным интеллектом, а именно, централизованными сущностями Web2, такими как Meta. Чтобы действительно защититься от искусственного интеллекта, необходимо срочно продвигать разработку технологий на основе блокчейна, в основном в области кибербезопасности, а также для создания настоящей конкурентной экосистемы децентрализованных приложений социальных медиа.
We will continue to update BiLee; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Почему управляющие состоянием выбирают эти криптовалютные счета
- DeFi и Кредитный Риск
- Объяснение ‘безрисковой’ процентной ставки доходности Ethereum
- Перестаньте думать о ‘победах’ или ‘поражениях’ в дебатах о биткоин-ETF
- Приводные цепочки вводят новую динамику стимулирования в Bitcoin
- Что DAO могут узнать из партийной политики?
- Бывший председатель SEC о биткоин-ETF ‘Я считаю, что одобрение неизбежно