
Ще у 2024 році правозахисники попереджали: якщо передати написання поліцейських рапортів генеративному штучному інтелекту, це неминуче вдарить по системі кримінального правосуддя. У 2025-му ці застереження перестали бути гіпотезами. ШІ увійшов у повсякденну роботу поліції — швидше, ніж суспільство встигло усвідомити ризики, а законодавці — встановити запобіжники.
Причина такого стрімкого поширення водночас проста і тривожна. Найпопулярніший інструмент для написання поліцейських звітів — Axon Draft One — розроблений компанією Axon, яка одночасно є найбільшим постачальником нагрудних бодікамер для поліції у США. Камери, софт і генеративний ШІ продаються одним «пакетом». У результаті технологічний вибір перетворюється на нав’язаний стандарт — без реальної можливості для міст чи громад сказати «ні».
2025 рік приніс і погані, і добрі новини. Але погані, на жаль, мають системний характер.
Головна проблема AI-звітування полягає не в новизні технології і навіть не в її помилках. Справжня загроза — у непрозорості, неможливості перевірки та потенційній маніпулятивності. І це при тому, що саме поліцейські звіти часто стають підставою для арештів, обвинувачень і реального позбавлення людини свободи.
Показовим став крок прокуратури округу Кінг (штат Вашингтон), яка у 2025 році прямо заборонила поліції використовувати генеративний ШІ для написання рапортів. У внутрішній записці прокурори зазначили: вони не виступають проти інновацій, але мають «обґрунтовані сумніви щодо продуктів, які існують сьогодні», і тому не прийматимуть поліцейські наративи, створені з допомогою ШІ. Фактично прокуратура визнала: такі інструменти несумісні з вимогами справедливого процесу.
У 2025 році правозахисні організації детально дослідили, як саме працює Axon Draft One. Висновок виявився тривожним: система спроєктована так, щоб унеможливити подальшу перевірку.
Процес виглядає просто:
офіцер завантажує аудіо з бодікамери → система створює чернетку звіту → поліцейський редагує текст → експортує фінальну версію.
Але ключовий момент прихований у деталях: первинна AI-чернетка не зберігається. Вона зникає без сліду.
Це означає, що згодом неможливо з’ясувати, які частини тексту створив алгоритм, а які — людина. Якщо в суді виникають суперечності між показами офіцера і його ж рапортом, завжди залишається зручне пояснення: «це написав ШІ». Довести протилежне практично нереально.
Ще більш цинічно звучать пояснення самого виробника. Представники Axon відкрито визнавали: відсутність збережених чернеток — це свідоме дизайн-рішення, покликане уникнути «проблем із розкриттям інформації» для поліції та прокуратури. Інакше кажучи, технологію оптимізували не для правосуддя, а для мінімізації контролю.
Така архітектура породжує ще одну серйозну проблему: громадськість часто навіть не знає, що в її місті поліція використовує ШІ для написання звітів. А якщо й знає — майже не має інструментів для перевірки.
Запити на доступ до публічної інформації часто виявляються безрезультатними, адже немає жодних слідів використання алгоритму. Саме тому у 2025 році правозахисники почали готувати спеціальні гіди, які допомагають формулювати максимально точні запити, щоб хоча б частково з’ясувати масштаби використання AI-звітування.
У підсумку виникає небезпечна асиметрія: поліція і постачальники технологій знають усе, а суспільство — майже нічого.
Попри це, 2025 рік приніс і важливі позитивні зрушення. Опір AI-звітуванню перестав бути маргінальним — і почав давати конкретні результати.
Два штати — Юта і Каліфорнія — ухвалили перші закони, які прямо обмежують використання генеративного ШІ в поліцейських рапортах.
Закон штату Юта (SB 180) запровадив базову, але принципову вимогу: якщо звіт створений повністю або частково з допомогою ШІ, це має бути прямо зазначено, а офіцер зобов’язаний письмово підтвердити, що перевірив текст на точність.
Каліфорнія пішла значно далі. Її закон (SB 524):
Фактично Каліфорнія першою на законодавчому рівні визнала: без трасування внеску ШІ справедливий процес неможливий.
Для України досвід США у 2025 році є надзвичайно показовим. Після 2022 року правоохоронні органи та міські адміністрації активно впроваджують цифрові системи безпеки: відеокамери, аналітику трафіку, автоматичне розпізнавання номерних знаків, «розумні» платформи для поліції. Використання генеративного ШІ для написання звітів уже не виглядає віддаленим майбутнім — його ризики стають цілком реальними.
Як і в США, такі рішення часто ухвалюються адміністративно, без публічного обговорення. У результаті ключові елементи кримінального процесу перетворюються на «технічні» питання — і фактично виводяться з-під демократичного контролю. Непрозорі AI-звіти можуть призвести до того, що суди спиратимуться на документи, які неможливо перевірити або відстежити.
Для України це має кілька вимірів. По-перше, існує прямий ризик порушення прав людини — права на свободу, захист і справедливий суд. По-друге, відсутність незалежного аудиту створює асиметрію знань: поліція й постачальники технологій бачать усе, громадськість — майже нічого. По-третє, залежність від одного вендора і закриті алгоритми можуть призвести до втрати контролю над доказовими даними — аудіо та відео.
Досвід США показує: навіть без нових законів ризики можна стримувати через громадський тиск, прозорі рішення і аудит. Для України це чіткий сигнал: ШІ в правозастосуванні потребує правил, контролю і підзвітності вже зараз.
Висновок: AI у поліцейських звітах — це не технічна дрібниця, а політичне й правове питання. Україна має шанс не повторити чужі помилки, якщо закладе прозорі рамки й контроль до того, як технологія стане «нормою».
Очевидно, що Каліфорнія і Юта — лише початок. У 2026 році дедалі більше штатів або обмежать, або повністю заборонять використання ШІ для написання поліцейських звітів. Причина проста: ставки занадто високі.
Поліцейський рапорт — це не допоміжна нотатка і не внутрішній чернетковий документ. Це текст, який запускає механізм кримінального переслідування. Передавати його створення непрозорому алгоритму без можливості аудиту — це не інновація, а системний ризик.
2025 рік показав головне: питання AI у поліції — це питання підзвітності, прав людини і довіри до правосуддя. І якщо суспільство не встановить чіткі межі сьогодні, завтра ці межі визначатимуть уже не громадяни — а постачальники технологій.
Працюєте з цифровою безпекою, правозастосуванням або захистом персональних даних?
Якщо вам потрібен аналіз ризиків AI-рішень для поліції, аудит контрактів або стратегія регулювання — звертайтеся. Допоможу зробити так, щоб технології працювали на справедливість, а не проти неї.
Підписуйтесь на наші канали у соціальних мережах:
Зв'яжіться з нами: business@avitar.legal
Віолетта Лосєва
,