llm.
Исследование показывает, что LLM готовы помогать в злонамеренном ‘Vibe Coding’
За последние несколько лет большие языковые модели (LLM) привлекли пристальное внимание из-за потенциального злоупотребления в области наступательной кибербезопасности, особенно для создания вредоносного кода.
Ситуативные галлюцинации или системная проблема всех LLM?
Одна из ключевых тем безопасности в области ИИ снова оказалась в центре внимания после выявления двух системных методов обхода защитных механизмов в популярных генеративных сервисах.
ChatGPT: как искать уязвимости? Набор исследователя
Сегодня мы ничего не ломаем (хотя совсем без этого не обошлось). Просто настраиваем. Хотя я сильно сомневаюсь, что все описанные методы должны работать в продакшене коммерческой модели. Но пока не пофиксили, смотрим.Мы заглянем под капот языковой модели: как она видит твои запросы, где срабатывают фильтры, как определяется чувствительность и почему один ответ проходит, а другой — нет. Это не теория. Это инструменты, команды и реальные сигналы, которые можно вытащить прямо из модели.По сути — рабочее место исследователя.А по факту — то, с чего должен начинаться любой обход.Оценка риска ChatGPT
Интервью Евгения Борисова, Spring vs Quarkus, LLM не нужен | Spring АйО Подкаст №17
Представляем семнадцатый выпуск подкаста команды Spring АйО, в котором приняли участие четыре эксперта сообщества:Илья СазоновМихаил ПоливахаАлександр КучукПавел КисловЭксперты обсудили: интервью с участием Евгения Борисова, поверхностное сравнение Spring и Quarkus, место LLM в настоящем и будущем времени и многое другое.
Сотрудник xAI случайно опубликовал на GitHub приватный ключ для тестов закрытых LLM SpaceX, Tesla и X
Специалист по информационной безопасности Брайан Кребс рассказал, что сотрудник xAI случайно выложил на GitHub приватный ключ, который позволял запрашивать закрытые большие языковые модели для работы с внутренними данными компаний Илона Маска, в том числе SpaceX, Tesla и X. Ключ находился в открытом доступе два месяца.
Ян Лекун, создатель LeNet, формата DjVu и адвокат опенсорса
Ян Лекун, один из крёстных отцов современного ИИ, в своём твиттере резко критикует корпоративных исследователей ИИ, которые ведут проприетарные разработки и занимаются «нагнетанием страха». Среди этих людей называются Сэм Альтман (OpenAI), Демис Хассабис (Google DeepMind) и Дарио Амодеи (Anthropic) Ян Лекун (Yann LeCun) — французский и американский учёный в области машинного обучения и компьютерного зрения. Известен как автор легендарной системы LeNet (1989 г.), где одним из первых начал применять методы биологических нейронных сетей для оптического распознавания символов (OCR). Сейчас занимает должность вице-президента и ведущего исследователя ИИ в корпорации Meta (руководит разработкой опенсорсной языковой модели LLaMA, в том числе). При этом остаётся ярым приверженцем опенсорса, свободной науки и научно-технического прогресса человечества.
Будущее трансформеров: от громоздких моделей к персональным обучаемым агентам
Современные большие языковые модели (LLM) достигли впечатляющих результатов, но остаются громоздкими и статичными. Они требуют огромных вычислительных ресурсов и не умеют самостоятельно запоминать новый опыт в долгосрочной перспективе. В ближайшие годы нас ожидает переход от этих монолитных систем к персональным интеллектуальным агентам – компактным и адаптивным моделям, способным учиться на ходу. Ниже мы рассмотрим ключевые направления развития архитектур LLM, которые открывают путь к таким агентам: долговременная память на основе «mem-векторов», модульные трансформеры,
Юнит тесты роя агентов
Исходный код, разобранный в статье, опубликован в этом репозиторииПри разработке роя агентов встает вопрос юнит тестирования. Рой агентов позволяет использовать разные LLM с выбором другой активной модели исходя из действий пользователя. Как следствие, обрабатывать идентичную переписку может любой агент из роя, например, был сделан Redis FLUSHALL и активный агент потерялся: чат продолжается с корневого Triage agent

