- BrainTools - https://www.braintools.ru -
Недавно запущена академическая инициатива Critical AI Literacy (CAIL) — проект о критической ИИ-грамотности с курсами, событиями и материалами для преподавателей, студентов и практиков. Стартовая страница: https://olivia.science/ai [1], описание проекта Radboud University: https://www.ru.nl/en/research/research-projects/critical-ai-literacy-cail [2].
Идея CAIL проста: меньше антропоморфизма и рекламных обещаний, больше чётких формулировок, прозрачных методов, обозначенных ограничений и воспроизводимых результатов.
CAIL — это совокупность опорных знаний и практик: теоретическая информатика (TCS), статистическое обучение [3], оптимизация, архитектуры ИИ, когнитивные основы, методология науки и социотехнический контекст. Цель — формулировать проверяемые утверждения, явно фиксировать ограничения и добиваться воспроизводимости результатов, избегая антропоморфизма и круговых рассуждений.
Термин “ИИ” сегодня часто служит общим ярлыком для разнородных решений — от автодополнения до заявлений об “AGI”. Без базовых принципов растёт риск неверных интерпретаций. CAIL возвращает оценки к критериям науки: что именно показано, как проверено, на каких данных и можно ли это повторить.
Параллельно ИИ-системы быстро внедряют в образование, медицину, медиа и политику, а критические курсы пока редкость. Некритичное внедрение:
усиливает ошибки [4] и предвзятости (в том числе против меньшинств)
подменяет обучение “чёрными ящиками” и ведёт к дескиллингу — утрате профессиональных навыков
имеет экологическую и экономическую цену (энергия, оборудование, бюджет)
создаёт институциональную зависимость от вендоров
Как отмечают в проекте CAIL, уже есть примеры реального вреда: от скандала с социальными выплатами в Нидерландах до роста энергетических затрат и нарушений авторских прав. Поскольку ИИ автоматизирует существующие предвзятости и властные структуры, он может усиливать социальную, экономическую и экологическую несправедливость. Поэтому критическая ИИ-грамотность нужна срочно.
Источник: страница проекта Radboud University. [2]
База (прочитать в первую очередь)
Против некритического принятия технологий “ИИ” в академической среде [5].
Against the Uncritical Adoption of ‘AI’ Technologies in Academia.Guest, O., Suarez, M., Müller, B., et al. (2025). Zenodo. DOI: 10.5281/zenodo.17065099
https://zenodo.org/records/17065099 [5]
Интервью (Kent Anderson & Joy Moore) [6]: — обзор мотивов и тезисов инициативы.
Блог-посты и популярные тексты
Нет богов ИИ, нет мастеров ИИ [7]
No AI Gods, No AI Masters. Guest, O., Van Rooij, I., Müller, B., Suarez, M. (2025). https://www.civicsofttechnology.org/blog/no-ai-gods-no-ai-masters [8]
Когнитивисты и исследователи искусственного интеллекта настоятельно призывают отказаться от “некритического внедрения” искусственного интеллекта в академической среде [9].
Cognitive scientists and AI researchers urge against “uncritical adoption” of AI in academia. Merchant, B. (2025).
https://www.bloodinthemachine.com/p/cognitive-scientists-and-ai-researchers/ [9]
Чушь об ИИ и разрушение знаний [10]
AI Nonsense and the Destruction of Knowledge. Van Rooij, I. (2025). https://zenodo.org/records/16905560 [10]
Критическая грамотность в области искусственного интеллекта: за пределами гегемонических взглядов на устойчивое развитие [11].
Suarez, M., Müller, B., Guest, O., Van Rooij, I. (2025).
https://zenodo.org/records/15677840 [11]
Не верьте шумихе: AGI далеко не неизбежен [12].
Don’t Believe the Hype: AGI is Far from Inevitable. Van Rooij, I., Guest, O. (2024).
https://www.ru.nl/en/research/research-news/dont-believe-the-hype-agi-is-far-from-inevitable [12]
Исследования, препринты и статьи
Против некритичного внедрения технологий “ИИ” в академической среде
Against the Uncritical Adoption of “AI” Technologies in Academia.
Guest, O., Suarez, M., Müller, B., et al. (2025). Zenodo. DOI: 10.5281/zenodo.17065099
https://doi.org/10.5281/zenodo.17065099 [13]
Что означает “человеко-центричный ИИ”?
What Does “Human-Centred AI” Mean?
Guest, O. (2025). arXiv. DOI: 10.48550/arXiv.2507.19960
https://doi.org/10.48550/arXiv.2507.19960 [14]
Сочетание психологии с ИИ: что может пойти не так?
Pairing Psychology with AI: What Could Go Wrong?
Van Rooij, I., Guest, O. (2025). PsyArXiv.
https://osf.io/preprints/psyarxiv/aue4m [15]
Повышать грамотность, а не LLM, в образовании
Raise Literacy, Not LLMs, in Education.
Forbes, S.-H., Guest, O. (2025). Cognitive Science. DOI: 10.1111/cogs.70058
https://doi.org/10.1111/cogs.70058 [16]
Метатеория классического и современного коннекционизма
Metatheory of Classical and Modern Connectionism.
Guest, O., Martin, A. E. (2024). PsyArXiv. DOI: 10.31234/osf.io/eaf2z
https://doi.org/10.31234/osf.io/eaf2z [17]
Возвращение ИИ как теоретического инструмента когнитивной науки
Returning AI as a Theoretical Tool for Cognitive Science.
Van Rooij, I., Guest, O., Adolphs, F. G., de Haan, R., Kolokolova, A., Rich, P. (2024).
Computational Brain & Behavior. DOI: 10.1007/s42113-024-00217-5
https://doi.org/10.1007/s42113-024-00217-5 [18]
ИИ: панацея или непреднамеренная дегуманизация?
AI: Panacea or Unintended Dehumanization?
Van der Gaan, L., Guest, O. (2024). Journal of Human-Technology Relations. DOI: 10.59490/jhtr.2024.2.7272
https://doi.org/10.59490/jhtr.2024.2.7272 [19]
О логическом выводе в мозге [20], поведении [21] и искусственных нейронных сетях
On Logical Inference in Brains, Behavior, and ANNs.
Guest, O., Martin, A. E. (2023). Computational Brain & Behavior. DOI: 10.1007/s42113-022-00166-x
https://doi.org/10.1007/s42113-022-00166-x [22]
“Сдвиг Пигмалиона”: как очеловечивание ИИ дегуманизирует женщин
The Pygmalion Shift: When Anthropomorphizing AI Dehumanizes Women.
Ersoy, L., Kleinherrenbrink, A., Guest, O. (2023). SocArXiv. DOI: 10.31235/osf.io/jq
https://doi.org/10.31235/osf.io/jqxb6 [23]
Автор: ELEKTRO_YAR
Источник [24]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/19762
URLs in this post:
[1] https://olivia.science/ai: https://olivia.science/ai
[2] https://www.ru.nl/en/research/research-projects/critical-ai-literacy-cail: https://www.ru.nl/en/research/research-projects/critical-ai-literacy-cail
[3] обучение: http://www.braintools.ru/article/5125
[4] ошибки: http://www.braintools.ru/article/4192
[5] Против некритического принятия технологий “ИИ” в академической среде: https://zenodo.org/records/17065099
[6] Интервью (Kent Anderson & Joy Moore): https://www.youtube.com/watch?v=p9w0FiHo1RU&t=1s
[7] Нет богов ИИ, нет мастеров ИИ: https://www.civicsoftechnology.org/blog/no-ai-gods-no-ai-masters
[8] https://www.civicsofttechnology.org/blog/no-ai-gods-no-ai-masters: https://www.civicsofttechnology.org/blog/no-ai-gods-no-ai-masters
[9] Когнитивисты и исследователи искусственного интеллекта настоятельно призывают отказаться от “некритического внедрения” искусственного интеллекта в академической среде: https://www.bloodinthemachine.com/p/cognitive-scientists-and-ai-researchers/
[10] Чушь об ИИ и разрушение знаний: https://zenodo.org/records/16905560
[11] Критическая грамотность в области искусственного интеллекта: за пределами гегемонических взглядов на устойчивое развитие: https://zenodo.org/records/15677840
[12] Не верьте шумихе: AGI далеко не неизбежен: https://www.ru.nl/en/research/research-news/dont-believe-the-hype-agi-is-far-from-inevitable
[13] https://doi.org/10.5281/zenodo.17065099: https://doi.org/10.5281/zenodo.17065099
[14] https://doi.org/10.48550/arXiv.2507.19960: https://doi.org/10.48550/arXiv.2507.19960
[15] https://osf.io/preprints/psyarxiv/aue4m: https://osf.io/preprints/psyarxiv/aue4m
[16] https://doi.org/10.1111/cogs.70058: https://doi.org/10.1111/cogs.70058
[17] https://doi.org/10.31234/osf.io/eaf2z: https://doi.org/10.31234/osf.io/eaf2z
[18] https://doi.org/10.1007/s42113-024-00217-5: https://doi.org/10.1007/s42113-024-00217-5
[19] https://doi.org/10.59490/jhtr.2024.2.7272: https://doi.org/10.59490/jhtr.2024.2.7272
[20] мозге: http://www.braintools.ru/parts-of-the-brain
[21] поведении: http://www.braintools.ru/article/9372
[22] https://doi.org/10.1007/s42113-022-00166-x: https://doi.org/10.1007/s42113-022-00166-x
[23] https://doi.org/10.31235/osf.io/jqxb6: https://doi.org/10.31235/osf.io/jqxb6
[24] Источник: https://habr.com/ru/articles/949162/?utm_campaign=949162&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.