Seguridad de IASeguridad de IALLMInyección de PromptsPortSwigger

PortSwigger LLM Labs: Tutorial Completo de Indirect Prompt Injection en Modelos de IA

R

Ricardo Prieto

05 abril 20255 min de lectura

PortSwigger LLM Labs: Tutorial Completo de Indirect Prompt Injection en Modelos de IA

Apoyan el proyecto

Organizaciones que hacen posible nuestra misión en ciberseguridad