KI-Bullshit

Immer wieder werde ich mit diesem Thema konfrontiert. Zuletzt weil ein Update meiner bevorzugte IDE phpStorm plötzlich eine neue „1 Zeile KI“ eingeführt hat, die mir bei jedem Tastendruck irgendwas in meinem Quelltext angezeigt hat, von der sie meinte, dass ich das ja eigentlich tippen wollte. Stimmte aber gar nicht und hat nur genervt. Keine Ahnung, warum man so etwas als Opt-Out implementiert.

Ein paar Tage davor gab es bei uns in der Agentur wieder einmal eine Diskussion zu ChatGPT, weil wieder einmal darum gebettelt wurde, dass die Agentur doch bitte einen Team-Zugang zu ChatGPT bereitstellen sollte. Es scheint also so zu sein, dass man ChatGPT super findet, aber nicht so toll, als dass man dafür zahlen würde. Es gibt allerdings auch Kollegen, die für den Dienst privat zahlen. Und die „erfreuen“ uns immer mal wieder mit unheimlich langweiligen, generierten Texten.

Im Unterton kann man wahrscheinlich schon erkennen, dass ich kein Fan von ChatGPT bin. Ich würde sogar soweit gehen, dass ich das ganze Thema total überflüssig finde – deshalb auch der Titel dieses Beitrags.

Ganz grundsätzlich finde ich es schon mal blöd, dass der Begriff KI dadurch total entwertet wird. Diese Large-Language-Models und andere Technologien, die eher unter „Machine Learning“ einzuordnen sind, haben rein gar nichts mit Künstlicher Intelligenz zu tun. Da sie aber als KI bezeichnet werden, verwechseln die Nutzer auch die Ergebnisse von ChatGPT & Co. auch mit etwas, wo eine Absicht, also eine Art Bewusstsein dahinter steckt. Das ist natürlich Quatsch.

Ich habe LLM in verschiedenen Szenarien benutzt und bin dabei immer sehr schnell an die Grenzen der Technologie gestoßen. Der fehlende Determinismus und die systembedingten fehlenden Quellen sind für mich das größte Problem. Das geht ja schon bei einem einfachen Zusammenfassen von Texten los – eine Aufgabe, die gerne beispielhaft als sinnvolles Einsatzgebiet für LLM genannt wird. Der Vorteil sei, dass man Zeit sparen kann, wenn man sich Zusammenfassungen von E-Mails, Meetings, Berichten, etc. durchlesen kann, statt sich mit dem Original zu beschäftigen. Im Gegensatz zu einem fachkundigen Menschen, kann ich bei der maschinellen Lösung nicht davon ausgehen, dass der zusammengesetzte Text keine wichtigen Informationen weg gelassen hat. Ja, ein Mensch kann theoretisch auch Fehler machen, aber wenn jemand diesen Job grundsätzlich gut macht, ist die Fehlerquote zu vernachlässigen.

Die LLM haben kein Textverständnis und auch kein Verständnis von dem Thema, um das es geht. Entsprechend kann die Fehlerquote überhaupt nicht abgeschätzt werden. Wie immer beim Einsatz von LLM muss auch hier das Ergebnis von einem Menschen überprüft werden. Der Mensch muss also den originalen und den zusammengefassten Text lesen, um dann entscheiden zu können, ob die Zusammenfassung korrekt ist. Da geht schnell viel von der Zeitersparnis weg.

Im Internet wird die selbe Technologie ja auch gerne genutzt, um Texte zu generieren, weil man selbst entweder keine Ahnung vom Thema hat, oder keine Lust hat, die Texte selbst zu verfassen. Diese Zeitersparnis führt dann ebenso zu fehlerhaften Texten, die zusätzlich auch noch furchtbar langweilig zu lesen sind. Ich habe das selbst probiert, weil ich für die einzelnen LEGO-Themengebiete Texte auf noppenstein.io ausgeben wollte. Klassisches SEO. Die Texte beinhalteten aber jede Menge Behauptungen, ohne, dass diese irgendwie belegt wurden. Ich habe einiges an Zeit damit verbracht, die Informationen, die sich ChatGPT ausgedacht hat, irgendwo im Internet zu finden. Erfolglos.

Und es gibt ja genügend Beispiele dafür, wie LLMs komplett falsche, weil erdachte Texte erstellt. Wie oben schon angedeutet, handelt es sich eben um keine Künstliche Intelligenz. Es ist keine Frage-/Antwort-Maschine, da sie die Fragen nicht „versteht“ und eben nur plausible Texte ausgibt. Ja, das ergibt verblüffende Ergebnisse, die oftmals sogar zur Frage passen. Aber eben nicht zuverlässig. Und genau das ist das große Problem.

Mir wurde vorgehalten, dass meine Abneigung gegenüber ChatGPT damit zu vergleichen wäre, Taschenrechner, oder in der Programmierung IDEs zu benutzen. Bzw. dürfte ich diese Dinge nicht benutzen, weil es ja auch nur Werkzeuge sind und ChatGPT ebenso nur ein Werkzeug ist. Hier kommen wir dann aber zum Determinismus. Der Taschenrechner liefert nachvollziehbare Ergebnisse und wenn ich in phpStorm auf ein Symbol klicke, um z.B. zur Deklaration einer Klasse zu springen, so passiert das genauso zuverlässig und vorhersehbar. Die IDE springt nicht einmal dahin und ein anderes mal dorthin. Genau das macht aber z.B. ChatGPT. Die Ergebnisse werden zufällig aus einer Reihe von möglichen ausgewählt. Das ist absichtlich so und gehört dazu, wie diese Modelle funktionieren. Alleine deshalb sollte man sich schon Gedanken machen, wie gut so ein Ergebnis sein kann, wenn es doch gar kein Kriterium für „Bestes“ gibt. Denn sonst würde doch sicherlich das beste Ergebnis ausgegeben, oder?

Man hört außerdem immer mal wieder das Argument, dass ChatGPT einem ermöglicht, komplexe Ergebnisse durch reine Spracheingabe zu erreichen. In dem Zusammenhang wird einem dann auch schon einmal vorgeworfen, dass man sich einfach nur schwer damit täte, seine Anfragen mit natürlicher Sprache zu formulieren und man deshalb gegen ChatGPT sei.

Traurig finde ich, dass dies selbst von Softwareentwicklern als Argument angebracht wird. Gerade diese Personengruppe sollte doch eigentlich wissen, dass dies das Hauptproblem in unserer Industrie ist: die Kundenanforderungen exakt in Code umzusetzen ist etwas, was bei der Softwareentwicklung die meiste Zeit in Anspruch nimmt. Auch andere Wissensgebiete haben eine spezialisierte Sprache (wie die Programmiersprachen in der Softwareentwicklung), wie etwa Noten in der Musik, die Mathematik, Physik und Chemie natürlich, aber selbst Abfragesprachen wie SQL existieren aus dem Grund, ganz präzise Werkzeuge zur Verfügung zu stellen, um einen Sachverhalt darzustellen, bzw. Ergebnisse zu ermitteln.

Das Einführen der natürlichen Sprache in diese Domänen erschließt diese zwar auch für unqualifizierte Personen, die Ergebnisse können aber aufgrund der Wahl des Werkzeugs ChatGPT nicht an die von Experten heranreichen. Und das Erlernen einer Sprache (mathematische Symbole, Programmiersprachen) führt noch lange nicht dazu, dass man damit auch das Wissen erlernt hat, mit diesen umzugehen.

Bei einer Diskussion dazu mit einem Kollegen machte dieser die interessante Beobachtung, dass es vielleicht einfach diese fehlende Qualitätsansprüche sind, die die ChatGPT-Fans dazu verführt, die Ergebnisse ihres Werkzeugs als viel zu gut einzuschätzen. Früher war eh alles besser, aber ich erinnere mich sehr lebhaft an eine Zeit im Internet, in dem Links noch wichtig waren und wo man keine Aussage tätigen konnte, ohne einen Link als Quellenangabe mit anzugeben. Das war ein sehr wissenschaftlicher Ansatz, den aber auch „Normalos“ nachvollziehen konnten. Irgendwann wurde das mit dem Verlinken schwieriger, weil Instagram, YouTube, Twitch und Tik-Tok durch ihre audiovisuelle Art ein Zitieren sehr schwierig machen, oder aber Bezahlschranken und Facebook es den Benutzern sehr schwer machen, Quellangaben überhaupt überprüfen zu können.

In der Folge wird heute gefakenewst, dass sich die Balken biegen und nur eine Minderheit scheint sich daran zu stoßen. In diesem Umfeld ist es dann vielleicht sogar zu erklären, dass ein Text, Bild oder Video aus ChatGPT genauso „gut“ ist, wie der ganze andere Müll, der im Internet schwimmt. Eine automatische Übersetzung ist ja trotz ihrer vielen Fehler immer noch besser, als etwas nicht zu verstehen. Trotzdem würde ich keine so übersetzten Verträge unterschreiben. Und genauso mag ich keine generierten Texte lesen, oder keinen generierten Code einsetzen. Ich habe da einfach einen anderen Qualitätsanspruch.

Jedes Mal, wenn ich an ein Softwareprojekt heran gehe, möchte ich es besser machen, als beim vorherigen Mal und ich kann zu so gut wie jeder Zeile in meinem Code sagen, warum diese genau so aussieht und nicht anders. Und was ich plane daran zu ändern, wenn sich zwei, drei Dinge in dem Projekt in eine andere Richtung entwickeln.

Als ich in meinem Studium in einem Lektorat gearbeitet habe und später dann ein Redakteur meine Texte mit Bemerkungen versehen hat, wurden Sätze und ganze Paragraphen mehrfach umgeschrieben um verständlicher zu sein, aber auch im Gesamtkontext des Textes einen besseren Fluss zu haben. Und in den Bachelorarbeiten, die ich bislang betreuen durfte, war es mir ebenso wichtig im Auge zu behalten, wo im Text dem Leser etwas evtl. nicht mit an die Hand gegeben wurde, obwohl das an dieser Stelle für das Verständnis wichtig gewesen wäre.

ChatGPT kann zwar gute Texte hervorbringen, aber eben nicht so gute, wie welche, bei der sich jemand wirklich Mühe gegeben hat. Und warum sollte ich meine Zeit damit verschwenden, einen Text zu lesen, den jemand selbst gar nicht schreiben wollte und es deshalb einer Maschine überlassen hat?

Meine Erfahrung zum Direktverkauf auf mobile.de

Autoverkäufer haben in meinen Augen nicht ganz zu unrecht einen etwas zweifelhaften Ruf, so geht mir das inzwischen aber eigentlich mit allen Berufszweigen, die mir etwas verkaufen wollen – aus Erfahrung wird man klug.

Jedenfalls musste ein fast sechs Jahr altes Auto verkauft werden und da der VW-Händler, über den die Bestellung des neuen abgewickelt wird, sich nicht mehr gemeldet hat in Bezug auf den Ankauf eines Autos, musste ich selbst tätig werden. Das letzte Auto hatte ich über autoscout24.de verkauft, mein subjektiver Eindruck ist es aber, dass mobile.de inzwischen präsenter auf dem Markt ist – und wahrscheinlich eh alle auf beiden Plattformen gleichzeitig ihre Fahrzeuge anbieten.

Wenn ich etwas verkaufen möchte, von dem ich keine Ahnung habe, was ein angemessener Preis dafür ist, gehe ich immer erst einmal auf die jeweilige Verkaufsplattform und gebe grob die Daten des Artikels ein. Die Suchergebnisse lassen mich dann meistens ganz gut einschätzen, was so der Preisbereich ist. Hier ging es um einen Mitsubishi Eclipe Cross Automatik mit Allradantrieb und gut 69.000 km auf dem Tacho. Die Preise lagen grob zwischen 17.000 € und 23.000 €. Da waren auch ein paar private Angebote dabei, aber auch sonst variierten Zustand, Kilometerleistung, Erstzulassung und die genaue Sonderausstattung.

Bevor ich mich überhaupt umgesehen hatte, war ein Betrag von 14.000 € aus verschiedenen Gründen für mich die unterste Schmerzgrenze. Neben dieser Preisfindung durch Suche nach ähnlichen Angeboten, bieten verschiedene Plattformen aber auch einen Preisvorschlagsservice an. Vor sechs Jahren hatte ich den von wirkaufendeinauto.de genutzt, der Unterschied zwischen dem Onlinepreis und dem, was mir dann bei der Besichtigung angeboten wurde, wich aber um mehr als 10 Prozent ab – nach unten natürlich. Es war mir also klar, dass diese geschätzten Preise mit Vorsicht zu genießen sind.

Jedenfalls bot mir mobile.de über diesen Weg 17.000 € an, bei wirkaufendeinauto.de waren es 15.500 €. mobile.de hatte aber auch nur sehr wenige Informationen abgefragt, entsprechend konnte die Einschätzung von wirkaufendeinauto.de genauer sein. Höchst ärgerlich war bei beiden Anbietern, dass man die geschätzte Summe erst nach der Registrierung zu sehen bekam. Da ich mich schon weit vor dem Kauf des neuen Autos mit dem möglichen Preis für mein altes Auto beschäftigt hatte, bekam ich seitdem fast täglich E-Mails von den beiden, um den Verkauf doch bitte jetzt bald wirklich anzugehen. Ich kann mich nur wiederholen: das war extrem nervig.

Ich machte mir dann also zwei Termine: den ersten bei mobile.de, bzw. einem Partnerhändler hier in Moers und für den nächsten Tag in Duisburg bei wirkaufendeinauto.de. Vorher noch kurz durch die Waschstraße und ein bisschen Aussaugen und dann ging es los. Der Händler in Moers ist keiner, den man kennen würde und auch weit ab von dem Gewerbegebiet, indem sich sonst die ganzen Autohäuser angesiedelt haben. Und während andere Gebrauchtwagenhändler in Moers zumindest an irgendwelchen Einfallstraßen positioniert sind, ist dieser hier fast versteckt in einem kleinen Gewerbegebiet gelegen. Das nur zum Hintergrund, um was für einen Händler es sich wohl handelt. Durch verschiedene Äußerungen des Händlers gehe ich aber davon aus, dass der irgendwie in einem Verbund mit anderen Händlern sitzt.

Das Auto wurde zuerst von Außen und Innen begutachtet und dann im Büro noch fehlende Informationen von mir erfragt. Danach ging es ans Eingemachte: die 17.000 € aus dem Onlineangebot wären halt nur ein Richtwert aus allen möglichen Fahrzeugwerten, etc. pp und welchen Preis ich mir denn vorgestellt hätte. An der Stelle muss ich vorweg sagen, dass ich kein Verkaufsprofi bin und ich nur durch die Beschäftigung mit der Materie in den letzten Wochen zu dem Schluss gekommen war, dass 15.000 € eigentlich drin sein müssten und dass das für meine ersten Termine die untere Grenze sein sollten. Ich habe ja noch bis Ende Mai Zeit, bevor der neue Wagen ankommen soll, allerdings steht in Kürze aber ja auch noch ein längerer Urlaub an.

Zurück zum Ankauf. Auf die Frage des Händlers antwortete ich mit 15.500 €, also dem Preis, den mir wirkaufendeinauto.de blind geboten hatte und von dem ich ausgehen konnte, dass ich bei denen nicht so viel bekommen würde („Irgendwas finden die immer zu beanstanden“). Daraufhin ging er noch mal raus um Fotos „für den Kollegen“ zu machen. Und auch sonst wurden noch ein paar mehr Details nachgefragt und fleißig auf den Computerbildschirm geschaut. Schließlich fragte er mich, ob ich ihm da noch etwas entgegen kommen könnte. Auf meine Gegenfrage, um wie viel, meinte er was von 14.000 €. Das war mir aber deutlich zu wenig und so legte ich meine Karten auf den Tisch, erwähnte das Angebot von wirkaufendeinauto.de und dass ich gehofft hatte, aus dieser Woche herauszugehen und dabei 15.000 € für mein Auto zu bekommen. Daraufhin bot er mir 14.900 € und ich willigte ein.

Der eine oder andere Verkäufer wird jetzt vielleicht mit den Augen rollen, ob meiner Verhandlungsstrategie, aber ich bin ehrlich zufrieden mit dem Ergebnis. 14.900 € sind in meinen Augen 15.000 € und ob ich mit einem Privatverkauf vielleicht bis an 17.000 € herangekommen wäre, steht auch in den Sternen. So habe ich alles erledigt und kann entspannt Ostern und dann Ostasien entgegen schauen.

Ich kenne die Automobilbranche nicht und somit auch nicht deren Margen. Ich habe aber höchsten Respekt dafür, dass sie 12 Monate Gewährleistung auf gebrauchte Autos geben müssen. An meinem Auto war jetzt zwar nichts dran, aber ein Grund, mich jetzt nach einem neuen umzusehen war auch, dass ich einfach keine Lust habe, mich um irgendwelche Probleme am Auto zu kümmern. In einem Jahr kann echt sehr schnell was kaputt gehen.

Ich habe übrigens auch sofort alle Suchaufträge abbestellt, weil es mir zwar einerseits völlig egal ist, wenn der Händler mein Auto jetzt vielleicht für 23.000 € einstellt, gleichzeitig muss ich das aber auch nicht unbedingt wissen :) Für ein Nischenauto wie den Eclipse Cross passt der Verkaufspreis, den ich nun bekommen habe, sehr gut mit den früher mal angenommen Restwerten bei der Finanzierung und ich fühle mich nicht über den Tisch gezogen. Und ich glaube, das ist ein ganz gutes Endresultat eines jeden Kaufs/Verkaufs. Ich hoffe nur, der Händler bereut den Kauf ebenfalls nicht.

Verbrenner, Adé

Gestern habe ich wohl zum letzten Mal ein Auto betankt (zumindest mein eigenes) und ich sehr happy damit. Bei etwa 12.000 km Fahrleistung pro Jahr habe ich jeweils nicht nur etwa 960 Liter Benzin getankt, sondern dabei auch gut 1.900 kg CO2 ausgestoßen. Das ist im Vergleich zu den Massen an CO2, die jedes Jahr insgesamt ausgestoßen werden, nicht so viel, als absolute Zahl gesehen, aber schon ganz erschreckend. Also wenn man sich den Becken voll Benzin und den Haufen CO2 im Garten so vorstellt.

Auf ein Auto selbst möchte ich zwar nicht verzichten, zukünftig wird es aber nun elektrisch voran gehen. Der Volkswagen ID.4 ist schon bestellt aber nur der Automobilgott in Wolfsburg, bzw. Emden weiß, wann ich ihn in Empfang nehmen kann.

Da mein letzter Wagen bereits einer mit Automatikschaltung war, muss ich mich dahingehend nicht umgewöhnen, andere Dinge werden aber eine gewissen Anpassungszeit benötigen. Dabei habe ich vor den Ladestopps auf der Strecke zwischen NRW und Småland gar keine Angst. Die zwischen 1.000 km und 1.200 km (je nachdem, ob ich die Fähre Rødby/Puttgarden nehme, oder nicht) habe ich in der Vergangenheit eher mit viel zu wenig Pausen hinter mich gebracht. Ich weiß eh, dass ich für die Reise einen ganzen Tag unterwegs bin. Da kann ich es auch insgesamt noch mit mehr Rastzeiten angehen.

Neu ist aber auch, dass ich den ID.4 jetzt nur lease (für 4 Jahre), weil einfach komplett unsicher ist, wie der Gebrauchtwagenmarkt für Elektrofahrzeuge in 4 Jahren aussehen wird. Und wie die Entwicklung im Automobilbereich bis dahin fortschreitet. Ich bin mir ziemlich sicher, dass ich mich auch in 4 Jahren wieder für ein Auto entschieden werden – ich weiß bis heute nicht, wie ich die Reise überhaupt mit der Bahn bewältigen sollte -, es darf dann aber wahrscheinlich auch ein kleineres sein.

Bis dahin habe ich auch mehr Erfahrung damit, wie viel reale Reichweite ich in Sommer und Winter wirklich hinbekomme. Die Ladeinfrastruktur schein aktuell schon ausreichend zu sein, nur das Bezahlen könnte gerne einfacher werden. Aktuell habe ich die fünf (!) meistgenannten Apps für die Ladesäule einmal auf mein iPhone installiert und meistens müsste man dann pro Ladepunkt tatsächlich nachsehen, mit welcher App es dann am günstigsten wäre. Ein bisschen umständlich, aber voraussichtlich werde ich nur auf diesen Reisen zwischen Deutschland und Schweden überhaupt öffentliche Ladepunkt ansteuern müssen.

Mein aktuelles Auto ist übrigens erst sechs Jahre alt, das Verbrennen von Benzin machte mir aber zunehmend ein schlechtes Gewissen. Insgesamt zahle ich jetzt zwar deutlich mehr pro Monat, für das Privileg ein Auto zu fahren, gleichzeitig freue ich mich aber auch ungemein auf die neue Technik – seien wir ehrlich: es ist auch ein schönes, neues Spielzeug.

Und genauso, wie eine einzelne Stimme bei der Wahl nicht wirklich etwas verändert, ist mein Umstieg auf ein Elektroauto aber eben auch eine Wahl, die auf hoffentlich viele weitere Nachahmer trifft. Und sei es auch erst in 4 Jahren, wenn mein Fahrzeug dann als Leasingrückläufer einen Gebrauchtwagenkäufer findet.

SSL Zertifikat für Blogger.de

Vor nun fast einem Jahr habe ich Blogger.de auf https umgestellt und wie das bei diesen Zertifikaten nun einmal so ist, stand die Verlängerung an. Also die virtuelle Geldbörse gezückt, knapp 120,- € auf den Tisch gelegt und das ziemlich einfaches Wildcard-Zertifikat verlängert.

Let’s Encrypt kommt leider nicht in Frage, da die keine Wildcard-Zertifikate haben und für die mehr als 42.000 Subdomains auf Blogger.de Einzelzertifikate zu verwalten, kommt wohl eher einem Albtraum gleich.

Trotzdem bin ich ganz froh und auch ein wenig stolz, dass Blogger.de nun ausschließlich per https zu erreichen ist, auch wenn das zu Beginn all die Leute in leichte Panik getrieben hat, die unbedingt noch ein www. vor ihre Blog-Subdomain gehängt haben – da kann nämlich auch kein Wildcard-Zertifikat mit umgehen.

API-Tools für den Mac

Die meisten APIs, mit denen man heute bei der Webentwicklung zu tun hat, sind RESTful und bisher habe ich mich damit beholfen, die Anfänge in PHP und curl zu entwickeln, genügend Beispielcode habe ich in diversen Projekten rumfliegen.

Müssen dann aber komplexere JSON-Strukturen im Body eines POST-Request übergeben und oebendrein auch noch Dateien mit übergeben, kämpft man schon mal mehr mit dem Code als sich mit der API zu beschäftigen. In solchen Situationen können API-Tools für den Mac eine große Hilfe sein.

In der Vergangenheit hatte ich bereits mal Postman und Insomnia ausprobiert. Beide Male nur mit einfachen Beispielen und damals auch in erster Linie um mich mal mit den Tools zu beschäftigen. Heute stand aber tatsächlich oben beschriebene Aufgabe an: JSON-Data per POST im Body übergeben, darunter eine Datei, als Base64-Encoded Parameter.

Dieses Mal habe ich mir einen weiteren Client angeschaut: Paw. Nachdem ich bei diesem Client irgendwann herausgefunden habe, dass man bei den Werten ein Kontextmenü aufrufen kann, taten sich dort sehr einfache Möglichkeiten auf, um gerade die Datei Base64-Encoded dort einzufügen: erst im Finder die Datei Kopieren und dann wird mit dem Kontextmenü eben der Base64-Encoder ausgewählt und die Datei eingefügt. Dabei taucht dann nirgends im Interface der tatsächliche Quelltext auf – also nur, wenn man es explizit im Request selbst anschaut. D.h. man kann jederzeit im Editor noch sehen, dass es sich bei dem Wert um Base64 der Datei handelt, die dort auch nur mit dem Namen angezeigt wird.

Bei den beiden anderen Clients konnte ich das JSON zwar auch einfach per Copy & Paste aus Paw übernehmen, aber die einfache Art und Weise, wie ich die Base64-Encoded-Datei hätte einfügen können, habe ich dort nicht gefunden.

Mein erster Eindruck dieser drei Clients spricht also klar für Paw. Der große Haken ist nur, dass er (inklusive Steuern) gut 63 € kostet, während die anderen beiden Clients kostenlos sind. Alle drei bieten auch irgendwelche Team-Funktionalitäten an, die ich nicht ausprobiert habe. Auch sonst können alle Clients Code generieren, wobei mir Paw dabei auch die meisten Optionen zu haben schien.

So lange ich also nur mit recht einfachen APIs zu tun habe, werde ich im Moment wohl noch auf die Anschaffung von Paw verzichten. Das kann sich aber evtl. bald ändern, da ein weiteres Projekt mit der Anbindung einiger APIs ansteht. Und schön ist dabei auch, dass man bei Paw die Dateien verschlüsselt abspeichern und so mit in das Projekt einchecken kann. So kann man auch schnell man prüfen, ob die Beispielanfragen noch alle funktionieren – und das auch durch Projektmanager oder technisch versierte Kunden überprüfen lassen.