Помните, как раньше можно было с уверенностью сказать: «Это явно написал человек»? Сейчас - всё не так просто. Я открыла письмо от клиента, прочитала - и сначала похвалила стиль. Чисто, логично, без воды. Потом вижу: подпись, а в ней - «Сгенерировано с помощью ИИ». И я задумалась: а если бы не было подписи? Я бы поверила, что это живой автор?
Сейчас уже появились сервисы, которые в один клик могут определит ИИ писал или нет, ну например GPTZero ИИ детектор, но если цель всеже "самостоятельно и обязательно бесплатно") то давайте продолжим...
Сейчас мы живём в эпоху, когда искусственный интеллект пишет новости, посты, даже романы. И чем дальше, тем тоньше грань между «человеческим» и «машинным». Иногда это удобно. Но часто - опасно. Особенно когда речь о доверии, экспертизе, ответственности.
Я провела пару месяцев, тестируя разные тексты - чьи-то посты, статьи, письма. Иногда казалось, что передо мной - опытный копирайтер. А потом - раз: это сгенерил ChatGPT за 17 секунд. И вот тогда я поняла: нужно учиться слушать текст. Не глазами, а внутренним ухом.
OpenAI выпустила детектор ИИ - но он не спасёт
Когда OpenAI анонсировала AI Text Classifier, я, честно, обрадовалась. Наконец-то инструмент, который скажет: «Да, это ИИ» или «Нет, это человек». Но реальность оказалась прозаичнее.
Инструмент анализирует текст, сравнивает его с базой данных - образцами человеческих и сгенерированных текстов. Он смотрит на грамматику, синтаксис, лексику, ритм. Всё это - как почерк. У каждой нейросети есть свой стиль. И у людей - тоже. Classifier пытается найти отличия.
Но вот в чём беда: он ошибается. По данным самой OpenAI, инструмент правильно определяет как сгенерированные ИИ только 26% текстов. То есть, из десяти - два с половиной. А ещё он в 9% случаев принимает человеческий текст за машинный. Это как если бы врач ставил диагноз, глядя на погоду за окном.
И да, небольшая правка - и нейросеть обманута. Заменил пару слов, перестроил предложения - и текст уже «человеческий». Это не детектор. Это скорее индикатор подозрительности. Как дымовая сигнализация: может не сработать, может сработать без причины, но игнорировать её - рискованно.
Как звучит текст от ИИ? Я научилась слышать
Самое главное - это не грамматика, а ритм. У ИИ - свой ритм. Он ровный. Монотонный. Как метроном. Предложения идут одно за другим, но между ними нет живой паузы, нет эмоционального напряжения.
Представьте: вы читаете текст, и вдруг чувствуете - «что-то не так». Он гладкий, но… пустой. Нет ни иронии, ни личного мнения, ни неожиданного поворота. Это как слушать аудиокнигу, озвученную синтезатором: всё правильно, но душа не цепляется.
Ещё один признак - повторы. Не слова, а конструкции. Вот, например:
- «Это важно, потому что…»
- «Стоит отметить, что…»
- «Необходимо подчеркнуть, что…»
Одно предложение - нормально. Три подряд - тревожный звоночек. Это шаблон. ИИ не придумывает, он комбинирует. И часто комбинации повторяются.
Я проверяю это так: копирую текст в Notepad++, выделяю все вводные конструкции. Если их больше трёх - задумываюсь. А если они идут подряд - почти уверен: это ИИ.
Тема и аудитория - главные маркеры
ИИ хорошо справляется с поверхностными темами. Описание товара, краткая сводка новостей, пост в Instagram - это его зона комфорта. Там не нужно думать, нужно переработать.
Но стоит коснуться чего-то сложного - и нейросеть начинает тонуть. Например, попросите её написать о юридических нюансах сделки или о клинических проявлениях редкого заболевания. Она выдаст обобщённый, безопасный текст. Без риска. Без глубины. Без экспертности.
Почему? Потому что ИИ не понимает. Он предсказывает следующее слово. Он не знает, что такое страх, ответственность, этика. Он не может сказать: «Я не уверен в этом источнике». Он просто берёт и переупаковывает.
Поэтому если вы читаете текст, где:
- идёт спор о морали,
- приводятся противоречивые мнения,
- есть личный опыт,
- чувствуется напряжение,
--- скорее всего, это писал человек. Или хотя бы человек редактировал.
Источники - где ИИ чаще всего проваливается
Вот вы читаете статью. Автор ссылается на исследование 2021 года. Вы идёте по ссылке - а там… ничего. Страница не найдена. Или статья есть, но в ней совсем не то, о чём говорится.
Это классика. ИИ вымышляет источники. Не со зла. Просто его обучали на текстах, где были ссылки. И он научился имитировать ссылки. Но не проверять их.
Иногда он цитирует «статью из Harvard Review», которой не существует. Или ссылается на «исследование ВОЗ 2023 года», которого тоже нет. Это называется галлюцинации ИИ - и они опасны.
Мой лайфхак:
- Копирую цитату.
- Вбиваю в кавычках в Google.
- Если не находится - красный флаг.
И да, если текст не содержит никаких ссылок, но при этом оперирует фактами - тоже настороже. Человек, который что-то утверждает, обычно готов это подтвердить. Машина - нет.
Что делать? Учиться читать по-новому
Я не призываю бояться ИИ. Он - инструмент. Как молоток. Можно построить дом. А можно разбить окно.
Но мы должны научиться читать с критикой. Не принимать на веру. Спрашивать:
- Кто это написал?
- Зачем?
- Откуда информация?
- Чувствуется ли живая мысль?
И да, иногда я сама использую ИИ. Чтобы начать текст, чтобы переформулировать мысль. Но я всегда переписываю. Потому что мой голос - это не шаблоны. Это ритм, это паузы, это эмоции.
А вы уже замечали, как звучит текст от ИИ? Или всё ещё верите, что это просто «удобный помощник»? Пишите - мне важно ваше мнение.
