*Creditsy za to porównanie dla naszego CEO, Mateusza. 😉
Co to jest plik llms.txt i czy powinieneś go mieć?
d-tags
d-tags
*Creditsy za to porównanie dla naszego CEO, Mateusza. 😉
To plik tekstowy w markdown, który zawiera podsumowanie najważniejszych treści witryny, możecie tam wskazać kluczowe podstrony dla Waszego biznesu. Llms.txt w swoim założeniu ma być swoistym miksem plików robots.txt czy sitemap.xml – tylko dla botów LLM, m.in systemów opartych na AI, takich jak ChatGPT, Google Gemini, Claude czy Perplexity. Według jego twórcy, Jeremy’ego Howard’a, ma pomóc im czytać strony internetowe i interpretować je jako całość. A to z kolei ma umożliwić skuteczniejsze indeksowanie treści i ich widoczność w tych systemach AI.
Plik może występować w dwóch wersjach:
W wersji podstawowej, ma on taką strukturę:
# Title > Optional description goes here Optional details go here ## Section name - [Link title](https://link_url): Optional link details ## Optional - [Link title](https://link_url)
Plik dodaje się do głównego katalogu domeny. W sieci jest też już kilka generatorów tego pliku, np. https://wordlift.io/generate-llms-txt/ czy https://writesonic.com/free-tools/llms-txt-generator, a np. WordPress ma już kilka pluginów, które w tym pomogą, np:
Brzmi to wszystko bardzo fajnie i chwytliwie. Pytanie pojawia się takie… Czy to działa i czy serio potrzebujemy tego pliku?
Na ten moment nie ma żadnego potwierdzenia, że plik działa tak, jak w jego założeniach. Żaden z głównych LLM (OpenAI, Google, Anthropic) także tego nie potwierdził.
Natomiast zwolennicy pliku podkreślają, że właściwie – co nam szkodzi przetestować i go dodać na stronę. Jeśli działa i faktycznie stanie się kiedyś standardem jak pliki sitemap czy robots.txt, to wyprzedzimy konkurentów, mając go zaimplementowanego wcześniej. I może jest w tym jakaś racja. 😉
Jednym z takich zwolenników jest Alex Moss z Yoast. Mówił o tym w swojej prezentacji na kwietniowym brightonSEO w tym roku. Według niego, stanie się to nowym standardem, trochę porównał to również do znaczników strukturalnych. I yoast od wtedy taki plik ma, można zobaczyć jako przykład: https://yoast.com/llms.txt
Z kolei rozszerzonego pliku – używa m.in Zapier. Więc jeśli chcecie porównać jak może wyglądać, sprawdźcie: https://docs.zapier.com/llms-full.txt
Z Alexem zgadza się nasza SEO Team Leader, Paulina:
Plik llms.txt to obecnie jedynie propozycja, a nie obowiązujący standard, jednak istnieje duże prawdopodobieństwo, że w przyszłości zyska on na znaczeniu. Warto więc rozważyć jego zastosowanie, ponieważ taki plik daje właścicielom stron większą kontrolę nad tym, czy i w jaki sposób ich treści są wykorzystywane przez modele AI. To szczególnie istotne dla tych, którzy inwestują w content i chcą chronić jego wartość przed nieautoryzowanym użyciem. Z perspektywy SEO wdrożenie takiego rozwiązania może być dobrym krokiem wyprzedzającym. Uważam, że lepiej być przygotowanym niż reagować z opóźnieniem.
Do pliku llms.txt część specjalistów z branży podchodzi też sceptycznie, między innymi nasz Senior SEO & R&D Specialist, Wojciech Urban. Jakie słabe strony tego rozwiązania wskazuje?
Z tym porównaniem do meta tagów, z Wojtkiem zgadza się… John Mueller. Czy jest on obecnie 100% wartościowym źródłem informacji o SEO, oceńcie sami, ale oto co napisał John pod jednym z wątków o pliku llms.txt na Reddit:
AFAIK none of the AI services have said they’re using LLMs.TXT (and you can tell when you look at your server logs that they don’t even check for it). To me, it’s comparable to the keywords meta tag – this is what a site-owner claims their site is about … (Is the site really like that? well, you can check it. At that point, why not just check the site directly?)
Źródło: https://www.searchenginejournal.com/google-says-llms-txt-comparable-to-keywords-meta-tag/544804/
Jeżeli już szukać jakiegoś nowego standardu czy rozwiązania technicznego, które by ułatwiło integrację i współpracę naszej strony z narzędziami AI, to stawiałbym bardziej na MCP – Model Context Protocol.
Rok 2025 miał być rokiem agentów AI, de facto taki ChatGPT sam sobie jest już agentem, a nie samym tylko chatbotem. Temat jest obszerny i pewnie wymaga osobnego tekstu, niemniej idea pliku llm.txt nie wnosi niczego nowego, crawlery AI-owe radzą sobie bez tego. Z kolei wykorzystanie MCP przez nasz ecommerce pozwoliłby potencjalnie na przeprowadzenie całego procesu zakupowego za pomocą ChataGPT czy innego agenta AI, bez potrzeby nie tylko odwiedzenia strony, ale nawet klikania (tylko sterowania głosem). I to będzie rewolucja, na którą warto się przygotować: https://modelcontextprotocol.io/introduction
Plik llms.txt budzi sporo sprzecznych opinii, ma swoich zwolenników i przeciwników. Na pewno warto go testować i czekać na jakieś oficjalne potwierdzenia jego skuteczności. Wiadomo – wiele jeszcze może się zmienić, bo co jak co, ale zmian w SEO to nie brakuje. 😉
A Wy, co myślicie? 😉 A może już dodaliście ten plik u siebie?
Plik llms.txt to plik tekstowy w markdown, który zawiera podsumowanie najważniejszych treści witryny i wskazuje kluczowe podstrony dla biznesu.
Na ten moment nie ma potwierdzenia, że plik działa zgodnie z jego założeniami, a żaden z głównych LLM tego nie potwierdził.
Plik może występować w wersji podstawowej (nazwadomeny.pl/llms.txt) oraz rozszerzonej (nazwadomeny.pl/llms-full.txt), która zawiera więcej dyrektyw i treści.
Plik budzi sprzeczne opinie; zwolennicy uważają, że warto go testować, podczas gdy sceptycy wskazują na brak dowodów na jego skuteczność i porównują go do nieaktualnych meta tagów.