SOOO WICHTIG! 🙋♀️ «Die KI berechnet lediglich, welches Wort am wahrscheinlichsten auf das vorangegangene folgt. Die Aussagen eines KI-Assistenten sind also Wahrscheinlichkeiten, keine überprüften Fakten.»
Mit dieser Erklärung von Digitalredaktor Juerg Tschirren, wie grosse Sprachmodelle (LLM) funktionieren, beginne ich jede KI-Schulung und jede Keynote zum Thema künstliche Intelligenz (KI).
Dieses Verständnis ist enorm wichtig, denn es erklärt ganz viele Limiten und unerwünschte Nebenwirkungen, die KI-Tools wie ChatGPT, Claude & Co. haben. Und die wir immer haben werden, auch wenn sie besser werden.
🚨 In einem Experiment von EBU und BBC war zum Beispiel fast jede dritte KI-generierte Antwort fehlerhaft!
🙋♀️ Und weil wir User:innen immer für das Ergebnis verantwortlich bleiben, wenn wir ein KI-Tool nutzen, bedeutet dies:
🔎 Wir müssen entscheiden, wo wir diese KI-Tools einsetzen können – und wo nicht. KI ist nicht die Lösung für alles.
🔎 Wir müssen in gute Prompts mit möglichst viel Kontext investieren. Wobei der Einfluss guter Prompts häufig überschätzt wird.
🔎 Wir müssen das Ergebnis überprüfen: Ist es korrekt und entspricht es dem, was wir benötigen und wollen? Hier ist kritisches Denken gefragt.
Wer mehr wissen möchte:
Beitrag SRF: Fast jede dritte KI-Antwort enthält Fehler
https://lnkd.in/d_H5QaNd
Tipps & Hintergrundinfos: Mein Newsletter erscheint 5-6 Mal pro Jahr. Die nächste Ausgabe erscheint bereits nächste Woche. Ihn jetzt zu abonnieren ist also ein guter Zeitpunkt. 😉 💌
https://lnkd.in/dvmDnYZ7
Diese motivierende Rückmeldung auf meinen Newsletter habe ich zum Beispiel gestern erhalten: «Deinen Newsletter habe ich ebenfalls abonniert – gefällt mir, weil er einen anderen Fokus hat als viele andere Newsletter.»
#ki #digitalethics
Mit dieser Erklärung von Digitalredaktor Juerg Tschirren, wie grosse Sprachmodelle (LLM) funktionieren, beginne ich jede KI-Schulung und jede Keynote zum Thema künstliche Intelligenz (KI).
Dieses Verständnis ist enorm wichtig, denn es erklärt ganz viele Limiten und unerwünschte Nebenwirkungen, die KI-Tools wie ChatGPT, Claude & Co. haben. Und die wir immer haben werden, auch wenn sie besser werden.
🚨 In einem Experiment von EBU und BBC war zum Beispiel fast jede dritte KI-generierte Antwort fehlerhaft!
🙋♀️ Und weil wir User:innen immer für das Ergebnis verantwortlich bleiben, wenn wir ein KI-Tool nutzen, bedeutet dies:
🔎 Wir müssen entscheiden, wo wir diese KI-Tools einsetzen können – und wo nicht. KI ist nicht die Lösung für alles.
🔎 Wir müssen in gute Prompts mit möglichst viel Kontext investieren. Wobei der Einfluss guter Prompts häufig überschätzt wird.
🔎 Wir müssen das Ergebnis überprüfen: Ist es korrekt und entspricht es dem, was wir benötigen und wollen? Hier ist kritisches Denken gefragt.
Wer mehr wissen möchte:
Beitrag SRF: Fast jede dritte KI-Antwort enthält Fehler
https://lnkd.in/d_H5QaNd
Tipps & Hintergrundinfos: Mein Newsletter erscheint 5-6 Mal pro Jahr. Die nächste Ausgabe erscheint bereits nächste Woche. Ihn jetzt zu abonnieren ist also ein guter Zeitpunkt. 😉 💌
https://lnkd.in/dvmDnYZ7
Diese motivierende Rückmeldung auf meinen Newsletter habe ich zum Beispiel gestern erhalten: «Deinen Newsletter habe ich ebenfalls abonniert – gefällt mir, weil er einen anderen Fokus hat als viele andere Newsletter.»
#ki #digitalethics