Прозрачность ИИ
Об этой странице
Underground Academia — исследовательская платформа культурной сейсмографии. Эта страница объясняет, как автоматизированные инструменты применяются в нашем редакционном процессе, в соответствии с принципом прозрачности EU AI Act, Article 50.
Где применяются автоматизированные инструменты
Верификация и ресёрч
Каждая дата, цифра и атрибуция в наших лонгридах и расследованиях сверяется с независимыми публичными источниками. Автоматизированные поиски и инструменты source-matching помогают в этой верификации — они подтягивают кандидатов в источники и сигнализируют о несоответствиях, но не заменяют человеческое суждение. Решает, чему можно доверять, редактор.
Редакторская проверка стиля
Черновики проходят автоматизированные проверки стиля перед публикацией. Эти проверки ищут:
- Согласованность форматирования и цитирования
- Известные AI-паттерны (перегретые выражения, неестественная симметрия, шаблонные маркеры)
- Внутренние противоречия и неподтверждённые утверждения
- Соответствие редакционному style guide
Автоматизированные проверки работают параллельно с редакторской ревью, не вместо неё.
Враждебный ревью
Перед публикацией каждый лонгрид проходит через adversarial агентов, задача которых — найти слабые места: неподтверждённые утверждения, отсутствующую атрибуцию, compliance-пробелы, слабые аргументы. Когда такие агенты что-то находят, решение о том, как это исправить, принимает человек-редактор.
Где автоматизированные инструменты не применяются
- Авторство. Наши лонгриды и расследования написаны людьми. Автоматизированные инструменты не генерируют финальный текст.
- Мнение и оптика. Аргумент, суждения и перспектива — ответственность редактора и автора.
- Профилирование пользователей. Сайт не использует ИИ — и никакую другую технологию — для построения профилей посетителей, персонализации контента или таргетинга.
- Принятие решений о читателях. Мы не принимаем автоматизированных решений о посетителях (нет кредитного скоринга, нет модерационных классификаторов для читателей, нет поведенческого вывода).
Человеческая ответственность
Финальная ответственность за каждую опубликованную статью — за текст, факты, мнения и compliance — лежит на редакционной команде Underground Academia, которая входит в FolkUp. Автоматизированные инструменты — средство повышения продуктивности и контроля качества; они не размывают редакционную подотчётность.
Известные ограничения
Автоматизированные инструменты могут вносить ошибки. Мы смягчаем это через:
- Многоступенчатую верификацию (fact-check → legal review → hostile review → финальный редакторский проход)
- Прозрачное сопровождение источниками — каждое существенное утверждение связано с публичным источником, где это возможно
- Регулярную ревизию собственного процесса — когда обнаруживается режим отказа, процесс обновляется
Если вы заметили ошибку в нашем контенте, напишите нам на [email protected], и мы проверим, исправим и опубликуем поправку.
Ваши права
В соответствии с EU AI Act и смежным регулированием, вы имеете право:
- Знать, когда вы взаимодействуете с системой на базе ИИ (на этом сайте такая система не работает — это статическая публикация)
- Понимать, как принимаются автоматизированные решения, которые на вас влияют (здесь неприменимо — таких решений не принимается)
- В любой момент обратиться к человеку за разъяснением или исправлением
Контакт
Вопросы о редакционном процессе и применении ИИ: [email protected].
Последнее обновление: 20 апреля 2026 года