llm.
Безопасность AI-агентов в Web3. Часть 2: уязвимости современных LLM и соревновательный взлом
Современные методы джейлбрейков
Nvidia лидирует в тестах MLPerf по измерению производительности ИИ-чипов
Графические процессоры Nvidia в очередной раз почти полностью заняли первое место в одном из самых популярных тестов для измерения производительности чипов в сфере искусственного интеллекта. На этот раз основное внимание уделяется генеративным приложениям ИИ, таким как большие языковые модели (LLM).
Docker теперь конкурент Ollama?
Ребята зарелизили новую крупную фичу, и, как по мне, это самая крупная механика с момента выхода dev containers, так как это показывает, насколько всё-таки AI всё глубже интегрируется в разработку.Docker Model Runner - фактически инструментарий для запуска моделей локально, и это буквально полный конкурент для Ollama, но, будем объективны, пока что ещё очень сырой.Фактически у нас с вами появилась новая команда:
Безопасность AI-агентов в Web3. Часть 1: архитектура, уязвимости и старые добрые джейлбрейки
Салют, Хабр! Я Рябинин Виктор, в Positive Technologies вместе с командой мы анализируем безопасность блокчейнов и смарт-контрактов, исследуем уязвимости и создаём инструменты для их обнаружения.В последние годы мы наблюдаем активный рост популярности
ИИ оглупляет программистов? Исчезнут ли нормальные джуны?
TLDR; - нет, программисты не глупеют от использования ИИ, но вполне могут при неправильном использовании.
Локальный AI-ассистент в почте: инструкция по применению
Привет, Хабр! Это Eppie – p2p децентрализованная почта. У нас новости: мы добавили в Eppie ИИ. Сейчас расскажем, зачем, и как им пользоваться.Локальный ИИ == приватный ИИИногда ради безопасности пользователю приходится мириться с некоторыми неудобствами: короткий пароль удобнее длинного, но длинный надежнее. Люди естественным образом стремятся к удобству. И если длину пароля можно валидировать, и к этому все привыкли, то в других местах ожидать от пользователя больших жертв во имя безопасности не приходится.
Замена Langchain, как OpenAI Agents SDK справляется с глубоким поиском?
Агенты супер багованы. В своих проектах в компании мы заметили, что Langchain стал уж слишком баговым. В мультиагентных системах агенты зачастую циклятся, так как не понимают, когда они выполнили финальное действие, не вызывают друг друга когда надо, или же просто возвращают данные в битом формате JSON. Короче говоря, создать агентную систему стало не так то просто, и мы даже стали задумываться об упрощении систем, избавляясь от кучи агентов. И вот неделю назад OpenAI обновили SDK для создания агентов, а еще выкатили доступ к новым тулзам по API. Ну и я пошел тестить.
LLM беспристрастно о хорошем и плохом на Хабре
Если что не так, то все претензии к модели, а не ко мне. Я старался вести диалог спокойно, без дурных намерений и каверзных вопросов.LLM ответила очень подробно, по существу, иногда жестко и нелицеприятно, зато беспристрастно.Я бы предложил всему IT-сообществу и владельцам самого портала без обид просто поразмыслить над этими простыми и объективными суждениями и выводами модели. Если каждый что-то изменит на своём уровне возможностей, то будет оздоровление и польза. Моя цель состоит именно в этом.Обратите, пожалуйста, внимание на вопросы о проблемах и недостатках, это действительно стоит того.

