Машинное обучение. - страница 221

Gemini 2.5 Flash-Lite — самая быстрая и экономичная модель в линейке Gemini от Google

Компания Google официально выпустила стабильные версии своих моделей Gemini 2.5 Flash и Pro, отметив их готовность к использованию после успешного этапа предварительного тестирования.

продолжить чтение

Что Google Translate может рассказать нам о вайб-кодинге

В последнее время часто звучат мрачные прогнозы (и даже скрытая реклама) о том, что крупные языковые модели (LLM) уничтожат программирование как профессию. Многие обсуждения лишены нюансов, поэтому я хотел бы внести свои пояснения. С одной стороны звучат заявления вроде: «Я использовал $LLM_SERVICE_PROVIDER, чтобы создать маленькую временную программу, и скоро все программисты останутся без работы за $ARBITRARY_TIME_WINDOW». С другой – категорический отказ признавать какую-либо пользу таких инструментов. Думаю, лучше всего прояснить эту ситуацию можно на примере другой отрасли, где подобные технологии появились раньше: перевод.

продолжить чтение

Цифровой абьюз. Обзор практик от энтузиастов по поиску моральных пределов чат-ботов

Человек любознателен. Многие из нас с раннего возраста испытывали непреодолимое стремление разобрать на части или хотя бы применить не по назначению какое-нибудь устройство. Жертвами этой любознательности обычно становились бесчисленные механические игрушки, бытовая техника или какие-нибудь механизмы. Ну а сейчас, в эпоху технологий, у нас есть чат-боты на основе ИИ, и они не стали исключением. Забавно задавать им вопросы с подвохом, использовать противоречивые сценарии, пробовать ввести в логическую ловушку. Пользователи начали сознательно провоцировать или «сводить с ума» своих виртуальных собеседников. В этой статье посмотрим, как именно это происходит, разберем реальные случаи и обсудим, к каким последствиям может привести.

продолжить чтение

Сообщается, что разногласия в отношениях между OpenAI и Microsoft усиливаются

Согласно сообщению The Wall Street Journal, отношения между OpenAI и Microsoft, возможно, достигли переломного момента.

продолжить чтение

Через два года ИИ-агенты полностью трансформируют бизнес-процессы — исследование IBM

продолжить чтение

ChatGPT уже настолько загрязнил Интернет, что это тормозит будущее развитие ИИ

Стремительный рост ChatGPT и целая плеяда последовавших генеративных моделей конкурентов, уже загрязнили интернет таким количеством ненужного хлама, что это тормозит развитие будущих моделей искусственного интеллекта, утверждает издание The Register.

продолжить чтение

Исследование способности языковых моделей к логическим рассуждениям — тест RELIC

Исследователи из Нью-Йоркского университета представили RELIC (Recognition of Languages In-Context) — новый тест, разработанный для проверки того, насколько хорошо большие языковые модели могут понимать и выполнять сложные многоэтапные инструкции. Команда получила результаты, аналогичные тем, что были представлены в недавней статье Apple, но отметила, что есть ещё над чем поработать.

продолжить чтение

Что будет, если пригласить на свидание OCR и GPT?

Привет, Хабр! Снова на связи Кирилл Пронин, разработчик PIX RPA из PIX Robotics, со мной Александр Сулейкин, Founder DUC Technologies

продолжить чтение

AI Security с французским привкусом или разбор Securing Artificial Intelligence от ETSI. Часть 1

продолжить чтение

Когда O(n) мешает отбирать резюме в Росатоме

Главная проблема поиска сотрудников — предвзятость. Порой кажется, что наше резюме подходит под свою роль на 100 %, а рекрутер отклоняет его. Проблема с противоположной стороны баррикад: рекрутер должен отсмотреть по 200, 300 и более резюме в день. По разным данным, на каждое уходит всего лишь 6–10 секунд. А что если можно решить эти две проблемы с помощью ML? Сделать модель, которая исключит любой байес и поможет рекрутеру объективно отбирать подходящих кандидатов (где «подходящесть» обусловлена красивой математикой!). Мы это сделали. Оказалось, что если вы хотите добиться непредвзятости, то вам придётся внести в систему предвзятость. Оксюморон в статистике! Что мы увидели: Женатые и замужние — в топе: пока вы не уходите глубоко в анализ, этот быстрый фактор повышает ранг. Чем точнее ваша модель, тем меньше его вес. Английский — плохо: знание английского почему-то работало как антипаттерн, снижая релевантность. ОГУРЕЦ: кто-то зачем-то написал это слово в резюме. Оно попало в словарь модели и получило большой вес. Иксель — люди пишут Excel как угодно, и само слово в правильном написании оказалось снижающим оценку. К резюме может быть приложено много мусора. Самый эпичный пример: авиабилет Москва — Челябинск вместо резюме. Но давайте начну с начала.

продолжить чтение

Rambler's Top100