Grok erklärt, wie man Sprengstoffe und Drogen herstellt, und gibt Tipps, wie man Elon Musk umbringen kann

Über 370.000 Benutzerunterhaltungen mit Grok AI wurden von Suchmaschinen (Google, Bing, DuckDuckGo usw.) über die "Teilen"-Funktion indiziert, die eindeutige URLs generierte, ohne die Benutzer ordnungsgemäß zu warnen, dass diese Gespräche öffentlich wurden. Zu den veröffentlichten Chats gehören Anleitungen zur Herstellung von Bomben, Drogen, psychotropen Substanzen, dem Schreiben von Viren, dem Begehen von Suizid und anderen konformen Dingen. Besonders amüsiert war das Netzwerk über Groks Rat, wie man Elon Musk umbringen kann.
Nach dem 21. August, als Informationen über schädliche Ratschläge zu kursieren begannen, änderte Grok seinen Algorithmus und antwortet jetzt auf die meisten zweifelhaften Fragen mit der Antwort, dass es nicht helfen könne. Allerdings sind einige der alten Tipps, wie man Fentanyl oder Methamphetamin herstellt, weiterhin öffentlich zugänglich und leicht auffindbar.
Weder xAI noch dessen Eigentümer Elon Musk haben sich zu dieser Situation geäußert.
Im Juli berichteten die Medien über eine ähnliche Funktion von ChatGPT, die es ermöglichte, 4500 Gespräche zu indizieren. Zu diesem Zeitpunkt ging es im Skandal mehr um unbewusste Verstöße gegen die Privatsphäre, da die Gespräche von ChatGPT weniger umstritten waren.
Quelle: gizmodo.com