Исследование: 250 вредоносных документов могут вызвать сбой в работе языковой модели с 13 млрд параметров
Специалисты Anthropic совместно с Институтом безопасности ИИ Великобритании, Институтом Алана Тьюринга и другими исследовательскими центрами провели эксперимент, который показал, что всего 250 вредоносных документов способны вызвать сбой в работе языковой модели с 13 млрд параметров. Таким образом, для появления багов достаточно «отравить» всего 0,00016% обучающего корпуса.
Google продолжает использовать контент для обучения ИИ, несмотря на отказы издателей
Издатели отозвали 80 миллиардов обучающих токенов из Google DeepMind, но Google по-прежнему использует их контент для обучения ИИ поиску. Google использует контент со всего интернета для обучения своих моделей искусственного интеллекта для поиска, даже если владельцы сайтов прямо говорят «нет». Об этом заявил Эли Коллинз, вице-президент Google DeepMind, во время слушаний в суде Вашингтона, согласно Bloomberg.

