Медиакомпании борются с искусственным интеллектом как внутри, так и за пределами редакций новостей

Media companies fight artificial intelligence both within and outside newsrooms

Многие ведущие медиа-компании заняли позицию против использования искусственного интеллекта (ИИ), наподобие ChatGPT от OpenAI, в редакциях новостных изданий и запретили сканирование своего контента ИИ на веб-страницах.

Сообщается, что несколько основных медиа-компаний, включая CNN, The New York Times и Reuters, закодировали свои платформы таким образом, чтобы не давать доступ к своему контенту веб-сканеру GPTBot от OpenAI.

Веб-сканер был выпущен 8 августа с целью потенциального улучшения будущих моделей ChatGPT, индексируя контент с веб-сайтов.

Кроме того, по данным CNN, иные гиганты новостей и медиа, такие как Disney, Bloomberg, The Washington Post, The Atlantic, Axios, Insider, ABC News и ESPN, также предприняли аналогичные шаги. Крупные издательства, такие как Condé Nast и Vox Media, также приняли меры против использования ИИ.

Даниэль Коффи, президент и генеральный директор News Media Alliance, сказала корреспонденту CNN следующее:

«Я вижу повышенное чувство срочности в отношении использования и злоупотребления нашим контентом с использованием ИИ».

Уже разработчикам ИИ приходилось сталкиваться с исками, связанными с нарушением авторских прав на материалы, используемые для обучения моделей. 12 июля Google был подвергнут судебному иску из-за своей политики конфиденциальности в отношении скрэппинга данных ИИ.

Ранее Сара Сильверман и еще двое подали иск против Meta и OpenAI за использование ее авторского материала для обучения их систем без должного согласия.

В апреле генеральный директор News Corp Australia заявил, что ChatGPT и подобные системы ИИ должны платить за использование новостей.

Запрещать или не запрещать

Не только медиа-компании принимают активное участие в запрете использования чатботов на базе ИИ на рабочих местах или блокировке доступа систем к контенту.

В мае технологические гиганты Samsung и Apple запретили использование внутренних чатботов на базе ИИ, таких как ChatGPT, из-за опасений утечки конфиденциальных внутренних данных моделями.

Связано: Академическое сообщество разделилось по вопросу о политической предвзятости ChatGPT

Ранее ряд финансовых компаний, таких как JPMorgan, Bank of America, Goldman Sachs и Citigroup, также запретили внутреннее использование генеративных инструментов на базе ИИ.

26 июня Палата представителей США запретила своим членам использовать все чатботы на базе ИИ, за исключением ChatGPT Plus из-за его включения “важных функций конфиденциальности”, которые могут помочь защитить конфиденциальные данные.

СМИ и принятие ИИ — на пользу или во вред

Пока многие противодействуют вторжению технологии, другие интересуются ею и даже экспериментируют.

Компания Netflix, крупнейший развлекательный гигант, похоже, изучает возможность внедрения ИИ, судя по вакансиям в июле, предлагающим высокооплачиваемые должности в области ИИ.

Недавно медийный сайт BuzzFeed закрыл свое новостное подразделение и уволил 180 сотрудников, а затем в отчете по прибыли за первый квартал заявил, что будет «полагаться на ИИ».

Пример неправильного использования ИИ в СМИ случился в мае, когда ирландская газета пришлось извиниться за публикацию статьи, созданной ИИ. Газета утверждала, что она была «сознательно обманута» и поверила, что автором статьи является человек, но на самом деле это был ИИ.

ИИ для предприятий

Отчет, составленный 28 августа, также показал, что беспокойство о неправомерном использовании ИИ фирмами затрагивает и потребителей, причем почти три четверти из них выражают такие опасения.

Это произошло вскоре после того, как OpenAI выпустила версию своего чатбота ChatGPT для бизнеса с четыре раза большей мощностью, чем у потребительской версии. Утверждается, что версия для предприятий работает в два раза быстрее GPT-4 и обладает улучшенными стандартами конфиденциальности и безопасности.

Перед выпуском чатбота, ориентированного на предприятия, эксперт по блокчейну и ИИ из IBM заявил, что модель представляет собой несколько «ключевых рисков» для использования в бизнесе. Основной проблемой является риск компрометации конфиденциальных внутренних данных, что является основной опасностью для многих организаций, запретивших чатботов.

Журнал: Следует ли запретить выплаты при вымогательстве с использованием программы-вымогателя? Это привлекательная, но опасная идея

We will continue to update BiLee; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more