- BrainTools - https://www.braintools.ru -

OpenAI открыла доступ к новым моделям для модерации контента под названием GPT-OSS Safeguard. Это две открытые модели — gpt-oss-safeguard-120b и gpt-oss-safeguard-20b, созданные специально для распознавания и фильтрации опасных или неприемлемых данных.
Модели можно использовать для проверки отзывов, форумов, комментариев и любых пользовательских текстов. Они определяют токсичность, спам, мошенничество и скрытые манипуляции, а также позволяют разработчикам самим задавать политику модерации.
Как и оригинальная gpt-oss, Safeguard-модели умеют рассуждать и показывать цепочку мыслей — объяснение, почему тот или иной фрагмент текста был помечен как подозрительный.
OpenAI заявила, что цель проекта — создать универсальный инструмент для безопасного интернета, где разработчики смогут внедрять модерацию без необходимости обращаться к закрытым API. Модели доступны бесплатно и опубликованы на Hugging Face [1].
Делегируйте часть рутинных задач вместе с BotHub! [2] Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [3] вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Автор: cognitronn
Источник [4]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/21295
URLs in this post:
[1] Hugging Face: https://huggingface.co/collections/openai/gpt-oss-safeguard
[2] BotHub!: https://bothub.chat/?utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_source=contentmarketing&utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_medium=habr&utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_campaign=news&utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_content=Durov%20announced%20a%20decentralized%20network%20for%20AI%20operations
[3] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7
[4] Источник: https://habr.com/ru/companies/bothub/news/961508/?utm_source=habrahabr&utm_medium=rss&utm_campaign=961508
Нажмите здесь для печати.