Aktuelles

Forscher zeigen: So einfach lassen sich LLMs in Robotern mit einem Jailbreak missbrauchen

Damit Roboter in dieser Welt navigieren, Gefahren einschätzen und Regeln einhalten können, braucht es große Sprachmodelle. Allerdings lassen sich die LLMs laut einigen Forscher:innen leicht aushebeln. Und diese Jailbreaks hätten gravierende Konsequenzen. w... ...

Der ganze Artikel ist im Newsticker von T3N nachzulesen.

25.11.2024

RSS Newsfeed
Alle News vom TAGWORX.NET Neue Medien können Sie auch als RSS Newsfeed abonnieren, klicken Sie einfach auf das XML-Symbol und tragen Sie die Adresse in Ihren Newsreader ein!