Przez długi czas prompt injection opisywaliśmy prostą analogią: to trochę jak SQL injection, tylko dla systemów AI. Ten skrót był potrzebny. Pomagał oswoić temat i pokazać, że nie chodzi wyłącznie o „halucynacje”, ale o realny problem bezpieczeństwa. Dziś jednak coraz wyraźniej widać, że ta analogia bardziej temat otwiera, niż go domyka. OpenAI, OWASP i brytyjskie NCSC opisują już prompt injection nie jako ciekawostkę wokół modeli, ale jako praktyczne ryzyko dla agentów, które czytają zewnętrzne dane i mogą podejmować działania w imieniu użytkownika.
To zmienia wszystko.
Problem nie zaczyna się już przy samym „złośliwym promptcie”. Zaczyna się tam, gdzie model przestaje być tylko interfejsem tekstowym, a staje się elementem systemu wykonawczego. Gdy agent potrafi przeglądać web, czytać dokumenty, korzystać z pamięci, uruchamiać narzędzia albo wykonywać akcje, prompt injection przestaje być tylko błędem interpretacji. Staje się testem zaufania, uprawnień i architektury całego systemu.
Analogii do SQL injection nie trzeba wyrzucać. Trzeba znać jej granice
Nie ma sensu udawać, że wcześniejsze porównania były bezużyteczne. Nie były. Nadal dobrze tłumaczą rdzeń problemu: w obu przypadkach dochodzi do niebezpiecznego mieszania zaufanych instrukcji z niezaufanym wejściem. To wciąż dobra metafora na wejście do tematu. OWASP też opisuje prompt injection właśnie jako podatność wynikającą z tego, że instrukcje i dane są przetwarzane razem, bez wyraźnej separacji.
Ale jako pełny model techniczny ta analogia zaczyna zawodzić. NCSC pisze to wprost: prompt injection nie jest SQL injection, a zbyt dosłowne przenoszenie tej analogii może prowadzić do błędnych mitigacji. W klasycznych systemach istnieją dojrzałe sposoby twardego oddzielenia danych od poleceń. W systemach opartych o LLM taki podział jest znacznie mniej jednoznaczny, bo model operuje na wspólnym kontekście językowym.
Dlatego dziś warto powiedzieć coś bardziej precyzyjnego: analogia do SQL injection była potrzebna, ale już nie wystarcza. Pomagała zrozumieć ryzyko. Nie wystarcza jednak do projektowania obrony.
Kiedy model staje się agentem, zmienia się skala ryzyka
Najważniejsza zmiana ostatnich miesięcy nie polega na tym, że prompt injection nagle stał się możliwy. Polega na tym, że coraz więcej systemów AI ma już nie tylko odpowiadać, ale działać. OpenAI pisze o agentach, które potrafią przeglądać strony, pobierać informacje i wykonywać zadania w imieniu użytkownika. OWASP opisuje ten sam krajobraz szerzej: obok prompt injection pojawiają się nadużycie narzędzi, eskalacja uprawnień, eksfiltracja danych i zatrucie pamięci.
To właśnie tutaj prompt injection przestaje być „problemem promptu”, a staje się problemem systemu.
Jeśli chatbot da się zmanipulować, skutkiem może być zła odpowiedź. Jeśli agent da się zmanipulować, skutkiem może być zła decyzja, nieuprawniona akcja, wyciek danych albo wykonanie zadania w oparciu o fałszywy kontekst. Różnica nie jest kosmetyczna. To już nie kwestia jakości odpowiedzi, tylko integralności całego workflow.
Dlaczego filtrowanie promptów nie wystarczy
Naturalna reakcja na prompt injection brzmi zwykle podobnie: wykryjmy złośliwe instrukcje, odfiltrujmy je, dołóżmy classifier, może jakiś „AI firewall”, i po sprawie. Tyle że coraz więcej źródeł pokazuje, iż to podejście jest zbyt wąskie.
OpenAI opisuje prompt injection przez analogię do social engineeringu: atak nie musi polegać wyłącznie na prostym „ignore previous instructions”. Może opierać się na manipulacji kontekstem, wiarygodnością źródła, formatem komunikatu albo kolejnością działań. Anthropic idzie podobnym tropem i pisze wprost, że web jest środowiskiem adwersarialnym, a prompt injection pozostaje aktywnym obszarem badań.
To ważne, bo z takiego obrazu wynika prosty wniosek: nie da się oprzeć bezpieczeństwa wyłącznie na próbie perfekcyjnego wykrycia ataku. OWASP także zaznacza, że nie istnieje dziś niezawodna, pojedyncza metoda, która całkowicie eliminuje prompt injection. Obrona musi być warstwowa, a jej celem jest nie tylko blokowanie ataku, ale też ograniczanie skutków jego powodzenia.
Innymi słowy: problem nie polega już wyłącznie na tym, że agent „czyta coś złośliwego”. Problem polega na tym, że może uznać tę treść za wiarygodną, zgodną z celem i wartą wykonania.
Prawdziwy problem: architektura zaufania
W tym miejscu prompt injection staje się naprawdę interesujący. Nie jako pojedyncza sztuczka na model, ale jako test architektury zaufania.
Komu ufa agent? Zewnętrznej stronie bardziej niż polityce systemu? Treści dokumentu bardziej niż intencji użytkownika? Własnej pamięci bardziej niż aktualnym ograniczeniom bezpieczeństwa? Wynikom narzędzia bardziej niż regułom autoryzacji? To są dziś znacznie lepsze pytania niż proste: „czy mamy filtr na prompt injection?”.
Jeżeli agent ma szerokie uprawnienia, jedną rozlaną tożsamość, brak separacji narzędzi i żadnych potwierdzeń dla działań wysokiego ryzyka, wtedy nawet stosunkowo banalna manipulacja kontekstem może przełożyć się na realny incydent. Jeżeli natomiast system został zbudowany według zasady najmniejszych uprawnień, z izolacją narzędzi, walidacją działań i kontrolą człowieka nad krytycznymi operacjami, to udany prompt injection nie musi jeszcze oznaczać katastrofy. Taki właśnie kierunek obrony opisują dziś i OpenAI, i OWASP.
Bezpieczeństwo agentów zaczyna się przy uprawnieniach
To chyba najważniejszy praktyczny wniosek z całej dyskusji. Bezpieczeństwo agentów nie zaczyna się przy sloganach o „odpornych promptach”. Zaczyna się przy pytaniach o uprawnienia.
Czy agent naprawdę musi mieć dostęp do całej skrzynki mailowej? Czy musi sam wykonywać akcje, czy wystarczy, że je proponuje? Czy pamięć długoterminowa jest izolowana od kontekstu sesji? Czy wyjście z jednego narzędzia staje się automatycznie wejściem do kolejnej decyzji? Czy da się odtworzyć w logach, jakie źródło wpłynęło na określoną akcję? OWASP AI Agent Security Cheat Sheet traktuje właśnie takie elementy jako podstawę praktycznej obrony.
To podejście porządkuje też wcześniejsze dyskusje o prompt injection. Zamiast pytać, czy da się stworzyć idealny filtr, lepiej pytać, czy agent nie dostał więcej zaufania, niż system umie bezpiecznie kontrolować. To może mniej efektowne niż hasło „nowe SQL injection”, ale znacznie bardziej użyteczne.
Co zostaje z bezpieczeństwa, gdy atak jednak się uda
To jest pytanie, które dziś naprawdę ma znaczenie.
OpenAI bardzo wyraźnie przesuwa nacisk z pełnej detekcji ataku na projektowanie systemów odpornych na skutki manipulacji. Anthropic też podkreśla, że prompt injection to nadal rozwijający się problem badawczy i że bezpieczeństwo agentów musi zakładać życie w środowisku adwersarialnym. Z takiego podejścia wynika trzeźwy wniosek: dojrzałości systemu agentowego nie mierzy się tym, czy modelu nigdy nie da się oszukać. Mierzy się ją tym, jak mało agent może zepsuć, gdy model jednak zostanie zmanipulowany.
Dlatego human-in-the-loop dla działań wysokiego ryzyka, ograniczanie blast radius, segmentacja dostępu, izolacja narzędzi, polityki egress, monitoring i audyt przestają być dodatkami. Stają się właściwym rdzeniem bezpieczeństwa agentów.
Po erze prostych analogii
Prompt injection nie przestał być ważny. Przestał być tylko nowinką.
Dziś widać już wyraźnie, że nie jest to wyłącznie problem „złych instrukcji” w tekście, ale szerszy problem systemów, które czytają świat i jednocześnie mogą w nim działać. Dlatego najuczciwszy opis prompt injection w 2026 roku nie brzmi już: „to nowe SQL injection”. Lepszy brzmi tak: to jeden z pierwszych naprawdę praktycznych testów tego, czy architektura agenta potrafi kontrolować własne zaufanie.
Najważniejsze pytanie nie brzmi już: czy agent rozpozna złośliwą instrukcję. Ważniejsze brzmi: co może zrobić, jeśli jej nie rozpozna. I właśnie od odpowiedzi na to pytanie zaczyna się dziś poważne myślenie o bezpieczeństwie agentów.
Gdy prompt injection dopiero przebijał się do szerszej dyskusji, najważniejsze było samo nazwanie ryzyka. Dziś, gdy agenci AI coraz częściej nie tylko odpowiadają, ale też działają, ważniejsze staje się pytanie nie o sam atak, lecz o architekturę systemu, który ma go przetrwać.
Źródła
- OpenAI — Designing AI agents to resist prompt injection Oficjalny materiał OpenAI o projektowaniu agentów odpornych na prompt injection, z naciskiem na ograniczanie skutków udanej manipulacji, a nie wyłącznie na próbę jej pełnego wykrycia.
- OpenAI — Understanding prompt injections: a frontier security challenge Szersze ujęcie prompt injection jako rozwijającego się problemu bezpieczeństwa, który będzie ewoluował wraz z agentami i rosnącą zdolnością modeli do działania.
- OWASP Cheat Sheet — AI Agent Security Cheat Sheet Bardzo praktyczny materiał o bezpieczeństwie agentów: least privilege, human-in-the-loop, izolacja pamięci i narzędzi, monitoring, walidacja danych wejściowych i wyjściowych.
- OWASP Cheat Sheet — LLM Prompt Injection Prevention Cheat Sheet Dobre źródło do opisania samego mechanizmu prompt injection oraz różnicy między klasycznymi podatnościami injection a podatnościami w systemach LLM.
- OWASP GenAI Security Project — LLM01: Prompt Injection Uzupełniające źródło porządkujące prompt injection jako jedną z kluczowych klas ryzyk dla aplikacji opartych o LLM.
- UK NCSC — Prompt injection is not SQL injection (it may be worse) Bardzo ważny tekst pokazujący, dlaczego analogia do SQL injection jest użyteczna publicystycznie, ale niewystarczająca jako model techniczny i model obrony.
- Palo Alto Networks Unit 42 — Web-Based Indirect Prompt Injection Observed in the Wild Przydatne źródło pokazujące, że pośrednie prompt injection przez web nie jest już tylko teorią, ale zjawiskiem obserwowanym w praktyce.















