- Forscher fragen, ob KI etwas versteht.
- Sie testen große Sprachmodelle mit Sätzen.
- Sätze zeigen Alltag oder etwas Unmögliches.
- Beispiele sind Eis, Schnee, Feuer, gestern.
- Die Forschenden schauen ins Innere der Modelle.
- Modelle zeigen unterschiedliche innere Muster.
- Diese Muster gleichen oft menschlichen Urteilen.
- Größere Modelle zeigen solche Muster häufiger.
Schwierige Wörter
- forscher — Person, die neue Dinge erforschtForschenden
- verstehen — wissen, was etwas oder jemand meintversteht
- testen — etwas prüfen, sehen ob es funktioniert
- sprachmodell — Computerprogramm, das Sprache verarbeitet und Texte erzeugtSprachmodelle
- muster — eine wiederkehrende Form oder Idee
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Denkst du, dass KI etwas versteht?
- Magst du Sätze über den Alltag oder über Unmögliches lieber?
- Hast du schon einmal ein Sprachmodell benutzt?
Verwandte Artikel
Wenn Sterne von supermassiven Schwarzen Löchern zerrissen werden
Eine neue Studie erklärt, wie ein Stern, der zu nahe an ein supermassives Schwarzes Loch kommt, zu einem Trümmerstrom wird. Kollisionen und Akkretion erzeugen helle Aufblitze, die die ganze Galaxie kurz überstrahlen können.
Mikroben können Einschlagtrümmer überleben
Eine Studie zeigt, dass Bakterien in Gesteinstrümmern eines Asteroideneinschlags extreme Drücke überstehen können. Die Versuche mit dem Wüstenbakterium Deinococcus radiodurans liefern Hinweise zur Möglichkeit der Übertragung von Leben zwischen Planeten.
Ana María Cetto fordert offene Wissenschaft
Die mexikanische Physikerin Ana María Cetto wurde zur Präsidentin des UNESCO-Lenkungsausschusses für Offene Wissenschaft ernannt. Sie warnt vor der Privatisierung von Forschung und fördert regionale Plattformen wie Latindex, um Wissen öffentlich zugänglich zu halten.
Vibe coding: AI erzeugt verwundbaren Code
Forscher warnen vor dem Programmierstil „vibe coding“, der oft unsicheren Code freigibt. Ein Tool der Georgia Tech durchsuchte über 43.000 Sicherheitswarnungen und fand zahlreiche Fälle, in denen generative KI bei der Entstehung unsicheren Codes half.