KI wurde also auch schon das Schwindeln beigebracht
Das ist kein Geheimnis – und auch keine "antrainierte Schwäche", sondern ein grundlegendes Problem aller dieser Werkzeuge. Es ist wichtig zu verstehen, dass ChatGPT bzw. GPT-Modelle im Allgemeinen nur eingeschränkt als "künstliche Intelligenz" im klassischen Sinne bezeichnet werden können. Vielmehr handelt es sich um sogenannte generative Sprachmodelle. Das bedeutet, sie analysieren und erzeugen Texte auf Basis von Wahrscheinlichkeiten und den Daten, mit denen sie trainiert oder versorgt wurden.
Entsprechend sind die Antworten stark davon abhängig, welche Informationen dem Modell zur Verfügung stehen. Wenn du z. B. einen eigenen Assistant mit der vollständigen Dokumentation von Shelly fütterst, wirst du deutlich bessere, kontextbezogenere Antworten erhalten. Allerdings bleibt auch dann ein gewisses Maß an Unsicherheit – denn solche Modelle können Informationen fehlinterpretieren oder falsch priorisieren, gerade bei komplexen oder mehrdeutigen Fragestellungen.
Kurz: Mit den richtigen Daten im Hintergrund kann ein KI-Assistent sehr hilfreich sein – aber er ersetzt kein Fachwissen und ist kein Garant für fehlerfreie Antworten.