Sam fakt wykorzystania generatywnej sztucznej inteligencji do tworzenia treści użytkowych jeszcze nie oznacza niczego złego. Wprost mówią o tym wytyczne Google dotyczące treści generowanych przez AI. Tworząc treści dla użytkowników, najważniejsze jest, aby były to wiarygodne informacje przydatne odbiorcom, zgodne ze standardem E-E-A-T, co nie przekreśla zastosowania AI w content marketingu.
Problem pojawia się w momencie, gdy mamy do czynienia z treściami, które mogą nosić znamiona spamu i/lub wprowadzać w błąd: są niezrozumiałe, zawierają nieprawdziwe informacje (powstałe na skutek halucynowania AI) lub nie wnoszą żadnej wartości dla odbiorców. Podobnie, jeśli mamy do czynienia z pójściem na skróty, gdy umowa stanowiła inaczej. Wyobraźmy sobie sytuację: prowadzimy stronę i zamawiamy treści blogowe z zapewnieniem, że zostaną one napisane przez człowieka. Otrzymawszy je na pierwszy rzut oka widać, że zostały one automatycznie wygenerowane.
Co jednak, jeśli nie jesteśmy pewni tego, czy treści wyszły spod rąk copywritera, czy też stworzyła je sztuczna inteligencja? Jak sprawdzić, czy tekst został napisany przez AI? Tego dowiecie się w dalszej części wpisu.
Popularyzacja generatywnego AI sprawiła, że nie trzeba było długo czekać, aż pojawią się narzędzia do wykrycia treści tworzonych przez sztuczną inteligencję. Poniżej znajdziecie przykłady narzędzi, które pomogą Wam w sprawdzeniu, czy dany tekst został napisany przez AI oraz poznacie zasady ich działania.
Narzędzia do wykrywania treści tworzonych przez AI analizują różnice w strukturze i stylu tekstu, skupiając się na charakterystycznych cechach, które mogą wskazywać na pochodzenie tekstu. Wykorzystują zaawansowane algorytmy i modele językowe do oceny, jak naturalnie brzmi tekst, analizując takie aspekty jak złożoność składni, powtarzalność fraz, a także użycie nietypowego słownictwa, które może odbiegać od typowego dla tekstów pisanych przez człowieka.
Mogą one też badać schematy typowe dla znanych modeli generowania tekstu w celu identyfikacji charakterystycznych elementów, wskazujących na to, czy tekst został napisany przez AI (co bywa często określane „cyfrowym odciskiem palców” modeli językowych).
Oto kilka najbardziej popularnych detektorów treści tworzonych przez AI.
Chociaż narzędzia, których celem jest określenie, czy tekst został napisany przez AI, są w stanie z dużą precyzją wskazywać pochodzenie treści, nie są one stuprocentowo niezawodnym rozwiązaniem. Dokładność detekcji waha się między różnymi narzędziami i może być zależna od wielu czynników (jak choćby rodzaj tekstu i styl, w jakim został napisany bądź wygenerowany). Istnieje ryzyko wystąpienia zarówno fałszywie pozytywnych, jak i fałszywie negatywnych wyników.
Wspomniane wcześniej narzędzia to jedne z najbardziej popularnych rozwiązań w tej niszy – czy tak szeroko stosowane i uznane detektory także mogą się mylić? Jak najbardziej. Dla przykładu według testów Copyleaks klasyfikuje parafrazy stworzone przez AI (konkretnie QuillBot) jako treści tworzone przez człowieka. Nawet jeśli narzędzie opiera się na bardzo szerokiej bazie danych, nie będzie ono nieomylne. Dlatego właśnie detektory powinny być jedynie częścią szerszego procesu weryfikacji.
Nie można także zapomnieć o tym, że technologia, na której opierają się modele językowe i generatywne AI stale się rozwija – nie jest więc niczym dziwnym, że mimo regularnych aktualizacji nie każde narzędzie w czasie rzeczywistym nadąża za dynamicznymi zmianami w tej dziedzinie.
Narzędzia narzędziami – modele AI, w szczególności ChatGPT, tworzą teksty na podstawie określonych schematów i znając je, możemy nauczyć się, jak sprawdzić, czy tekst był napisany przez AI, czy został stworzony przez człowieka.
Dobitnym przykładem są powtarzające się frazy lub zdania. ChatGPT poproszony o stworzenie tekstu na konkretny temat potraktuje go jak słowo kluczowe i nie zastosuje synonimów, upychając frazę w treści ze sporą częstotliwością. Dla naocznego przykładu – wygenerowałem za pomocą tego narzędzia tekst o systemach alarmowych i efekt widać poniżej. Fraza „systemy alarmowe” pojawia się w ciągu pierwszych kilku akapitów aż 7 razy!
Powtarzalne zwroty pojawiają się szczególnie na początku i w podsumowaniu generowanych treści. Typowe dla ChatGPT są zwroty typu: „w obecnych czasach”, „w dzisiejszym świecie” lub szczególnie wariacja tego drugiego: „w dzisiejszym dynamicznym świecie”, po której następuje określenie branży bądź zadanej w prompcie tematyki. Nie trzeba daleko szukać – przykłady widać w wynikach wyszukiwania:
Czy zwróciliście uwagę na zwrot „w dzisiejszym blogu przyjrzymy się…” w przykładzie wygenerowanego tekstu powyżej? To również jeden z najbardziej charakterystycznych zwrotów wykorzystywanych przez ChatGPT: „w tym artykule/blogu/wpisie przyjrzymy się/wyjaśnimy/omówimy…” po których, tak jak poprzednio, następuje powtórzenie głównego tematu artykułu oraz dodatkowe kryteria uwzględnione w prompcie. Nawet GPT-4, czyli nowszy, płatny model OpenAI często generuje treści w oparciu o ten schemat, choć trzeba przyznać, że w wielu innych aspektach radzi sobie znacznie lepiej i nierzadko tworzy teksty o wyższym poziomie naturalności.
Normą są także błędy gramatyczne, stylistyczne i składniowe – szczególnie przy generowaniu tekstów po polsku, gdyż AI ma tendencję do przekładania konstrukcji w języku angielskim na język polski i tworzenia kalek językowych oraz innych tego typu „potworków”. To akurat widać na pierwszy rzut oka – jeśli używacie ChatGPT, z pewnością zobaczycie, że niektóre teksty bądź ich fragmenty brzmią po prostu nienaturalnie.
AI może także pisać w sposób przesadnie kwiecisty i poważny, wpadając w ton niedopasowany do kontekstu – efektem będzie tekst, którego nie da się określić w sposób inny, niż kiczowaty. Przykład powyższych dwóch „wpadek” AI? Sprawdźcie poniżej – od razu widać, że nie pisał tego człowiek.
Zwróćcie uwagę, że tutaj także przewijają się powyżej wspomniane mankamenty treści AI związane z bardzo charakterystycznymi strukturami tekstu.
Na koniec największa zmora treści tworzonych przez sztuczną inteligencję i najbardziej szkodliwy problem związany z treściami tworzonymi przez sztuczną inteligencję, czyli halucynacje, które mogą wprowadzać użytkownika w błąd. Innymi słowy – informacje „zmyślone” przez model językowy, które są kompletnie nieprawdziwe. Tu AI potrafi być naprawdę kreatywne…
Nawet jeśli przypuszczamy, że tekst jednak został napisany przez człowieka, warto posłużyć się zasadą „ufaj, ale sprawdzaj”. Co w tym wypadku warto zweryfikować?
Sprawdźmy źródła informacji (o ile są one podane). Czy mamy do czynienia z wiarygodnym autorem, który ma odpowiedni autorytet i wiedzę w danym temacie, czy są to informacje pochodzące znikąd lub od nieznanego twórcy o wątpliwej reputacji?
Porównajmy tekst z innymi treściami w tej samej tematyce. Czy podane informacje są zgodne, czy też odbiegają od innych źródeł?
Zweryfikujmy datę publikacji i aktualność zawartych treści. Czy nie są one przestarzałe? Czy odpowiadają obecnemu stanowi wiedzy w danym temacie?
Zwróćmy uwagę na stylistykę oraz kwestie językowe. Czy tekst jest klarowny i nie zawiera błędów logicznych? Czy zawarte słownictwo i ton odpowiada tematyce i formie treści?
Choć generatywne AI oparte na modelach językowych to niezwykle przydatne rozwiązanie, które możemy wykorzystać w różnych dziedzinach (wystarczy spojrzeć na zastosowanie AI w Google Ads czy ChatGPT w analizie słów kluczowych) – to tylko narzędzie, które ma ograniczone możliwości i bywa zawodne.
Jeśli zależy Ci na weryfikacji, czy tekst został napisany przez AI – oto, co możesz zrobić:
Nie chcesz, aby Twoją stronę zapełniały niskiej jakości treści generowane przez AI i zależy Ci na wysokiej klasy content marketingu? Napisz do nas! Przygotujemy dla Ciebie content plan i na jego podstawie stworzymy wartościowe dla Twoich odbiorców treści oparte o sprawdzone reguły SEO copywritingu, które zostaną docenione zarówno przez użytkowników odwiedzających Twoją stronę, jak i algorytymy Google.