{"id":3242,"date":"2024-04-08T08:44:32","date_gmt":"2024-04-08T06:44:32","guid":{"rendered":"https:\/\/olbertz.de\/blog\/?p=3242"},"modified":"2024-04-08T08:44:32","modified_gmt":"2024-04-08T06:44:32","slug":"ki-bullshit","status":"publish","type":"post","link":"https:\/\/olbertz.de\/blog\/2024\/04\/08\/ki-bullshit\/","title":{"rendered":"KI-Bullshit"},"content":{"rendered":"\n<p>Immer wieder werde ich mit diesem Thema konfrontiert. Zuletzt weil ein Update meiner bevorzugte IDE phpStorm pl&#246;tzlich eine neue &#8222;1 Zeile KI&#8220; eingef&#252;hrt hat, die mir bei jedem Tastendruck irgendwas in meinem Quelltext angezeigt hat, von der sie meinte, dass ich das ja eigentlich tippen wollte. Stimmte aber gar nicht und hat nur genervt. Keine Ahnung, warum man so etwas als Opt-Out implementiert.<\/p>\n\n\n\n<p>Ein paar Tage davor gab es bei uns in der Agentur wieder einmal eine Diskussion zu ChatGPT, weil wieder einmal darum gebettelt wurde, dass die Agentur doch bitte einen Team-Zugang zu ChatGPT bereitstellen sollte. Es scheint also so zu sein, dass man ChatGPT super findet, aber nicht so toll, als dass man daf&#252;r zahlen w&#252;rde. Es gibt allerdings auch Kollegen, die f&#252;r den Dienst privat zahlen. Und die &#8222;erfreuen&#8220; uns immer mal wieder mit unheimlich langweiligen, generierten Texten.<\/p>\n\n\n\n<p>Im Unterton kann man wahrscheinlich schon erkennen, dass ich kein Fan von ChatGPT bin. Ich w&#252;rde sogar soweit gehen, dass ich das ganze Thema total &#252;berfl&#252;ssig finde &#8211; deshalb auch der Titel dieses Beitrags.<\/p>\n\n\n\n<p>Ganz grunds&#228;tzlich finde ich es schon mal bl&#246;d, dass der Begriff KI dadurch total entwertet wird. Diese Large-Language-Models und andere Technologien, die eher unter &#8222;Machine Learning&#8220; einzuordnen sind, haben rein gar nichts mit K&#252;nstlicher Intelligenz zu tun. Da sie aber als KI bezeichnet werden, verwechseln die Nutzer auch die Ergebnisse von ChatGPT &amp; Co. auch mit etwas, wo eine Absicht, also eine Art Bewusstsein dahinter steckt. Das ist nat&#252;rlich Quatsch.<\/p>\n\n\n\n<p>Ich habe LLM in verschiedenen Szenarien benutzt und bin dabei immer sehr schnell an die Grenzen der Technologie gesto&#223;en. Der fehlende Determinismus und die systembedingten fehlenden Quellen sind f&#252;r mich das gr&#246;&#223;te Problem. Das geht ja schon bei einem einfachen Zusammenfassen von Texten los &#8211; eine Aufgabe, die gerne beispielhaft als sinnvolles Einsatzgebiet f&#252;r LLM genannt wird. Der Vorteil sei, dass man Zeit sparen kann, wenn man sich Zusammenfassungen von E-Mails, Meetings, Berichten, etc. durchlesen kann, statt sich mit dem Original zu besch&#228;ftigen. Im Gegensatz zu einem fachkundigen Menschen, kann ich bei der maschinellen L&#246;sung nicht davon ausgehen, dass der zusammengesetzte Text keine wichtigen Informationen weg gelassen hat. Ja, ein Mensch kann theoretisch auch Fehler machen, aber wenn jemand diesen Job grunds&#228;tzlich gut macht, ist die Fehlerquote zu vernachl&#228;ssigen.<\/p>\n\n\n\n<p>Die LLM haben kein Textverst&#228;ndnis und auch kein Verst&#228;ndnis von dem Thema, um das es geht. Entsprechend kann die Fehlerquote &#252;berhaupt nicht abgesch&#228;tzt werden. Wie immer beim Einsatz von LLM muss auch hier das Ergebnis von einem Menschen &#252;berpr&#252;ft werden. Der Mensch muss also den originalen <strong>und<\/strong> den zusammengefassten Text lesen, um dann entscheiden zu k&#246;nnen, ob die Zusammenfassung korrekt ist. Da geht schnell viel von der Zeitersparnis weg.<\/p>\n\n\n\n<p>Im Internet wird die selbe Technologie ja auch gerne genutzt, um Texte zu generieren, weil man selbst entweder keine Ahnung vom Thema hat, oder keine Lust hat, die Texte selbst zu verfassen. Diese Zeitersparnis f&#252;hrt dann ebenso zu fehlerhaften Texten, die zus&#228;tzlich auch noch furchtbar langweilig zu lesen sind. Ich habe das selbst probiert, weil ich f&#252;r die einzelnen LEGO-Themengebiete Texte auf noppenstein.io ausgeben wollte. Klassisches SEO. Die Texte beinhalteten aber jede Menge Behauptungen, ohne, dass diese irgendwie belegt wurden. Ich habe einiges an Zeit damit verbracht, die Informationen, die sich ChatGPT ausgedacht hat, irgendwo im Internet zu finden. Erfolglos.<\/p>\n\n\n\n<p>Und es gibt ja gen&#252;gend Beispiele daf&#252;r, wie LLMs komplett falsche, weil erdachte Texte erstellt. Wie oben schon angedeutet, handelt es sich eben um keine K&#252;nstliche Intelligenz. Es ist keine Frage-\/Antwort-Maschine, da sie die Fragen nicht &#8222;versteht&#8220; und eben nur plausible Texte ausgibt. Ja, das ergibt verbl&#252;ffende Ergebnisse, die oftmals sogar zur Frage passen. Aber eben nicht zuverl&#228;ssig. Und genau das ist das gro&#223;e Problem.<\/p>\n\n\n\n<p>Mir wurde vorgehalten, dass meine Abneigung gegen&#252;ber ChatGPT damit zu vergleichen w&#228;re, Taschenrechner, oder in der Programmierung IDEs zu benutzen. Bzw. d&#252;rfte ich diese Dinge nicht benutzen, weil es ja auch nur Werkzeuge sind und ChatGPT ebenso nur ein Werkzeug ist. Hier kommen wir dann aber zum Determinismus. Der Taschenrechner liefert nachvollziehbare Ergebnisse und wenn ich in phpStorm auf ein Symbol klicke, um z.B. zur Deklaration einer Klasse zu springen, so passiert das genauso zuverl&#228;ssig und vorhersehbar. Die IDE springt nicht einmal dahin und ein anderes mal dorthin. Genau das macht aber z.B. ChatGPT. Die Ergebnisse werden zuf&#228;llig aus einer Reihe von m&#246;glichen ausgew&#228;hlt. Das ist absichtlich so und geh&#246;rt dazu, wie diese Modelle funktionieren. Alleine deshalb sollte man sich schon Gedanken machen, wie gut so ein Ergebnis sein kann, wenn es doch gar kein Kriterium f&#252;r &#8222;Bestes&#8220; gibt. Denn sonst w&#252;rde doch sicherlich das beste Ergebnis ausgegeben, oder?<\/p>\n\n\n\n<p>Man h&#246;rt au&#223;erdem immer mal wieder das Argument, dass ChatGPT einem erm&#246;glicht, komplexe Ergebnisse durch reine Spracheingabe zu erreichen. In dem Zusammenhang wird einem dann auch schon einmal vorgeworfen, dass man sich einfach nur schwer damit t&#228;te, seine Anfragen mit nat&#252;rlicher Sprache zu formulieren und man deshalb gegen ChatGPT sei.<\/p>\n\n\n\n<p>Traurig finde ich, dass dies selbst von Softwareentwicklern als Argument angebracht wird. Gerade diese Personengruppe sollte doch eigentlich wissen, dass dies das Hauptproblem in unserer Industrie ist: die Kundenanforderungen exakt in Code umzusetzen ist etwas, was bei der Softwareentwicklung die meiste Zeit in Anspruch nimmt. Auch andere Wissensgebiete haben eine spezialisierte Sprache (wie die Programmiersprachen in der Softwareentwicklung), wie etwa Noten in der Musik, die Mathematik, Physik und Chemie nat&#252;rlich, aber selbst Abfragesprachen wie SQL existieren aus dem Grund, ganz pr&#228;zise Werkzeuge zur Verf&#252;gung zu stellen, um einen Sachverhalt darzustellen, bzw. Ergebnisse zu ermitteln.<\/p>\n\n\n\n<p>Das Einf&#252;hren der nat&#252;rlichen Sprache in diese Dom&#228;nen erschlie&#223;t diese zwar auch f&#252;r unqualifizierte Personen, die Ergebnisse k&#246;nnen aber aufgrund der Wahl des Werkzeugs ChatGPT nicht an die von Experten heranreichen. Und das Erlernen einer Sprache (mathematische Symbole, Programmiersprachen) f&#252;hrt noch lange nicht dazu, dass man damit auch das Wissen erlernt hat, mit diesen umzugehen.<\/p>\n\n\n\n<p>Bei einer Diskussion dazu mit <a href=\"https:\/\/lostfocus.de\">einem Kollegen<\/a> machte dieser die interessante Beobachtung, dass es vielleicht einfach diese fehlende Qualit&#228;tsanspr&#252;che sind, die die ChatGPT-Fans dazu verf&#252;hrt, die Ergebnisse ihres Werkzeugs als viel zu gut einzusch&#228;tzen. Fr&#252;her war eh alles besser, aber ich erinnere mich sehr lebhaft an eine Zeit im Internet, in dem Links noch wichtig waren und wo man keine Aussage t&#228;tigen konnte, ohne einen Link als Quellenangabe mit anzugeben. Das war ein sehr wissenschaftlicher Ansatz, den aber auch &#8222;Normalos&#8220; nachvollziehen konnten. Irgendwann wurde das mit dem Verlinken schwieriger, weil Instagram, YouTube, Twitch und Tik-Tok durch ihre audiovisuelle Art ein Zitieren sehr schwierig machen, oder aber Bezahlschranken und Facebook es den Benutzern sehr schwer machen, Quellangaben &#252;berhaupt &#252;berpr&#252;fen zu k&#246;nnen.<\/p>\n\n\n\n<p>In der Folge wird heute gefakenewst, dass sich die Balken biegen und nur eine Minderheit scheint sich daran zu sto&#223;en. In diesem Umfeld ist es dann vielleicht sogar zu erkl&#228;ren, dass ein Text, Bild oder Video aus ChatGPT genauso &#8222;gut&#8220; ist, wie der ganze andere M&#252;ll, der im Internet schwimmt. Eine automatische &#220;bersetzung ist ja trotz ihrer vielen Fehler immer noch besser, als etwas nicht zu verstehen. Trotzdem w&#252;rde ich keine so &#252;bersetzten Vertr&#228;ge unterschreiben. Und genauso mag ich keine generierten Texte lesen, oder keinen generierten Code einsetzen. Ich habe da einfach einen anderen Qualit&#228;tsanspruch. <\/p>\n\n\n\n<p>Jedes Mal, wenn ich an ein Softwareprojekt heran gehe, m&#246;chte ich es besser machen, als beim vorherigen Mal und ich kann zu so gut wie jeder Zeile in meinem Code sagen, warum diese genau so aussieht und nicht anders. Und was ich plane daran zu &#228;ndern, wenn sich zwei, drei Dinge in dem Projekt in eine andere Richtung entwickeln.<\/p>\n\n\n\n<p>Als ich in meinem Studium in einem Lektorat gearbeitet habe und sp&#228;ter dann ein Redakteur meine Texte mit Bemerkungen versehen hat, wurden S&#228;tze und ganze Paragraphen mehrfach umgeschrieben um verst&#228;ndlicher zu sein, aber auch im Gesamtkontext des Textes einen besseren Fluss zu haben. Und in den Bachelorarbeiten, die ich bislang betreuen durfte, war es mir ebenso wichtig im Auge zu behalten, wo im Text dem Leser etwas evtl. nicht mit an die Hand gegeben wurde, obwohl das an dieser Stelle f&#252;r das Verst&#228;ndnis wichtig gewesen w&#228;re.<\/p>\n\n\n\n<p>ChatGPT kann zwar gute Texte hervorbringen, aber eben nicht so gute, wie welche, bei der sich jemand wirklich M&#252;he gegeben hat. Und warum sollte ich meine Zeit damit verschwenden, einen Text zu lesen, den jemand selbst gar nicht schreiben wollte und es deshalb einer Maschine &#252;berlassen hat?<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Immer wieder werde ich mit diesem Thema konfrontiert. Zuletzt weil ein Update meiner bevorzugte IDE phpStorm pl&#246;tzlich eine neue &#8222;1 Zeile KI&#8220; eingef&#252;hrt hat, die mir bei jedem Tastendruck irgendwas in meinem Quelltext angezeigt hat, von der sie meinte, dass &hellip; <a href=\"https:\/\/olbertz.de\/blog\/2024\/04\/08\/ki-bullshit\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,74],"tags":[],"class_list":["post-3242","post","type-post","status-publish","format-standard","hentry","category-augenblicke","category-technik"],"_links":{"self":[{"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/posts\/3242","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/comments?post=3242"}],"version-history":[{"count":3,"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/posts\/3242\/revisions"}],"predecessor-version":[{"id":3266,"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/posts\/3242\/revisions\/3266"}],"wp:attachment":[{"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/media?parent=3242"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/categories?post=3242"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/olbertz.de\/blog\/wp-json\/wp\/v2\/tags?post=3242"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}