OpenAI говорит, что ChatGPT-4 сокращает время модерации контента с месяцев до часов.
OpenAI claims that ChatGPT-4 reduces content moderation time from months to hours.
OpenAI, разработчик ChatGPT, выступает за использование искусственного интеллекта (ИИ) в модерации контента, пропагандируя его потенциал для повышения операционной эффективности социальных медиа-платформ путем ускорения обработки сложных задач.
Компания заявила, что ее последняя модель искусственного интеллекта GPT-4 может значительно сократить сроки модерации контента с месяцев до часов, обеспечивая улучшение последовательности маркировки.
Модерация контента является сложной задачей для компаний социальных медиа, таких как Meta, материнская компания Facebook, и требует координации множества модераторов по всему миру, чтобы предотвратить доступ пользователей к вредному материалу, такому как детская порнография и крайне жестокие изображения.
“Процесс (модерации контента) по своей природе медленный и может вызывать психическое напряжение у человеческих модераторов. Благодаря этой системе процесс разработки и настройки политик контента сокращается с месяцев до часов.”
Согласно заявлению, OpenAI активно исследует возможности использования больших языковых моделей (LLM) для решения этих проблем. Ее языковые модели, такие как GPT-4, делают их подходящими для модерации контента, так как они могут принимать решения о модерации, руководствуясь политическими рекомендациями.
Прогнозы ChatGPT-4 могут улучшить более маленькие модели для обработки обширных данных. Эта концепция улучшает модерацию контента в нескольких аспектах, включая последовательность маркировки, быструю обратную связь и смягчение психического напряжения.
В заявлении отмечается, что OpenAI в настоящее время работает над повышением точности прогнозирования GPT-4. Одним из исследуемых направлений является интеграция цепочки мыслей или самокритики. Кроме того, проводятся эксперименты с методами выявления неизвестных рисков с использованием вдохновения от конституционного ИИ.
См. также: Вступление в силу новых правил по ИИ в Китае
Цель OpenAI заключается в использовании моделей для обнаружения потенциально вредоносного контента на основе широких описаний вреда. Полученные из этих усилий знания будут способствовать усовершенствованию текущих политик контента или созданию новых в неизведанных областях риска.
15 августа генеральный директор OpenAI Сэм Альтман уточнил, что компания воздерживается от обучения своих моделей ИИ с использованием данных, созданных пользователями.
Сохраните эту статью в качестве NFT, чтобы сохранить этот момент в истории и выразить поддержку независимой журналистики в крипто-сфере.
Журнал: AI Eye: Apple разрабатывает карманный ИИ, сделку с глубокой подделкой музыки, гипнотизирующего GPT-4
We will continue to update BiLee; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Dogecoin Power Play Robinhood сталкивается с оттоком китов на сумму $16 миллионов – подробности
- Илон Маск хвалит прокрипто-республиканского президентского кандидата
- Huobi объявляет о стратегическом партнерстве с TradingView
- Компания Coinbase приостанавливает торговлю USDT для канадских пользователей с 31 августа
- Mastercard сотрудничает с Ripple, но XRP падает ниже уровня до решения SEC
- Разработчик IBM Watson собирает $60 млн для запуска стартапа по искусственному интеллекту Elemental Cognition.
- После взлома Curve (CRV) запускается на TRON после инвестиций в размере 2 миллионов долларов