Filterbubble
Jan’s Filterbubble Podcast
FB0244 Das KI-Missverständnis
0:00
Aktuelle Uhrzeit: 0:00 / Gesamtzeit: -6:36
-6:36

FB0244 Das KI-Missverständnis

Über eine eventuell etwas unglücklich gewählte Bezeichnung

Transkript by Google

Wie vermutlich der Rest der Welt. Auch beschäftige ich mich in letzter Zeit immer öfter mal mit dem Thema KI. Was man damit so machen kann Spiel damit rum benutzt es auch hier und da mal produktiv Und? Auch wie andere es nutzen und tausche mich darüber aus und ist mir immer wieder.

Begegnen wir da interessante Fälle von also eigentlich interessante missverständnisse? Ein solches mir jetzt gerade eben in einem in einem Forum begegnet. Wo jemand? Berichtete? Hätte irgendwie den Schadensfall eines rohrbruchs. Und? Bzw. Ein streitfall Wasserrohrbruch durch den Versorger und wollte sich da dann von der KI einige Urteile. Anzeigen lassen?

Und stellte fest. Dass die KI nennt sie nicht näher vermutliches chat gpd Ja, stellte fest dass. Dass das Ergebnis irgendwelche erfundenen Urteile waren mit Aktenzeichen die es nicht gibt. Mit urteilen, die es nicht gibt und das hat aber auch. Teils also er hat versucht zu verifizieren und hat bei den jeweiligen Gerichten nachgefragt und Ergebnis war ja gibt es gar nicht und er ist total erstaunt darüber.

Und das ist bisschen schade. Weil es. Offenbart wo ganz oft so ein missverständnis liegt weil Also vielleicht ist das Problem auch schon die Bezeichnung KI was für künstliche Intelligenz steht. Artificial intelligence was eigentlich aber auch nicht das beschreibt was wir hier haben. Es sind llms es sind large language Models das heißt da ist ganz ganz viel Inhalt mal reingekippt worden.

Und? Dann hat man den Ding beigebracht. Diesen Inhalt also auf Grundlage dessen, was man da reingekippt hat diesen Inhalt. Mit einer bestimmten wahrscheinlichkeitsberechnung wieder auszugeben, das heißt ich fragte irgendwas und aus diesem Kontext ermittelt sich. Die Software. Was? Eventuell dabei dann rauskommen könnte. So das ist ganz toll wenn man!

Wenn man irgendwas rein kippt irgendeine Grundidee und möchte ein paar Anregungen haben weil das ist dann genauso funktioniert das eigentlich ist es eine Brainstorming Maschine. Ja und dann kriegt man auch irgendwas bei raus, was einem meistens irgendwie weiter hilft oder zumindest in irgendeiner Weise interessant ist. Was nicht funktioniert ist, dass ich das Ding nach Fakten befrage und erwarte dann, dass die Antwort stimmt.

Es ist sollte sich rumgesprochen haben, dass die Dinger zum Beispiel überhaupt nicht rechnen können. Das liegt auch genau daran, weil da frage ich nach konkreten Fakten. Aber dafür ist es wirklich das falsche Werkzeug. Natürlich kann man sich die Mühe machen und das? So einbauen, dass bei bestimmten Fragen zum Beispiel rechenaufgaben auf einmal ein anderer Algorithmus greift und dann kann das Ding.

Also man kann so ein Ding bestimmt beibringen zu rechnen. Man kann so ein Ding auch beibringen. Reale Gerichtsurteile auszugeben das geht alles, das ist nur nicht also das sind dann spezialanwendungsfälle und das ist nicht das was im Allgemeinen so ein llm dann kriegen immer ein bisschen als würde man leihen was so ein llm tut oder tun soll oder tun will.

Sondern das ist eine eine. Maschine die aufgrund von wahrscheinlichkeiten eine bestimmte Ausgabe generiert. Da kommt verblüffend oft wenn man bedenkt was für eine. Eigentlich zunächst sehr windig erscheinende Methode. Das ist kommt da verblüffend oft ganz schön sinnvoller Kram bei raus. Das liegt aber einfach daran, dass da unfassbar viel content reingegossen wurde.

Also ich meine die Dinger können programmieren und zwar so, dass das auch funktioniert. Also es funktioniert wirklich. Ich habe das selbst schon ausprobiert. Man gibt dem Ding eine Aufgabe und es gibt dir eine ein Programmcode aus der auch wirklich funktioniert. Da muss man dann hier und da noch mal nachpromen weil es dann an der ein oder anderen Ecke noch nicht ganz so ist wie man sie es vorgestellt aber die Funktion ist da.

Und das macht es eben auch nur weil es ganz ganz viel Programmcode mal gefressen hat und nicht etwa weil es mathegenie ist. Ich glaube man muss es wirklich. Man muss ein bisschen über die die landläufige Bezeichnung nachdenken, dass man es überhaupt mal KI genannt hat. Das muss man allerdings auch relativieren als diese ganzen.

Sprechenden Zylinder auf dem Markt kam da hat man das auch künstliche Intelligenz genannt. Das einzige was die konnten ist Sprache erkennen. Was mit Intelligenz ähnlich viel zu tun hat eigentlich noch ein bisschen weniger, aber es geht in eine ähnliche Richtung. Wie das was die sogenannten aktuellen KIS die es so gibt, so tun?

Die? Interpretieren die Eingabe. Und? Setzen dann im Anschluss Wörter zusammen und man kann den, wenn man jetzt zum Beispiel etwas jüngere. Entwicklung wie wie? Deepsieg R1 glaube ich heißt es? Wenn man das mal anschmeißt und benutzt, dann kann man der dem Ding auch wirklich beim denken beim denken in anführungsstrichen zu gucken.

Wie es abwägt welche Antwort jetzt eventuell dabei rauskommen könnte. Das ist vielleicht ganz gut um mal zu begreifen wie das wie das viech eigentlich arbeitet und wie eben nicht also. Jedenfalls begegnen wir dieses missverständnis dermaßen oft. Das ist echt bemerkenswert. Finde es Leute einfach nicht verstehen. Also die denken das ist ein intelligentes Wesen ganz ganz abstraktes intelligentes Wesen das irgendwie auf einem Server wohnt.

Und dass man befragen kann und das dann wahnsinnig Weise. Tolle Antworten gibt! Aber so ist es halt nicht.