-
Przed czym chroni zero trust AI?
09:45 09.04.2024
... lub pośrednio przez nieświadomego użytkownika korzystającego z aplikacji opartej na LLM w określonym przypadku. Cztery rodzaje prompt injections to: Direct Prompt Injection ... ujawnienia poufnych informacji przesłanych na serwer zewnętrzny. Aplikacje zintegrowane z LLM można zaprojektować tak, aby współpracowały z zasobami korporacyjnymi, takimi jak ...
Tematy: sztuczna inteligencja, LLM, prompt injection, wyciek danych