@AlenaMM,
bei der Nutzung von Technologien liegt es natürlich immer in der Verantwortung des Nutzers, dass er sich über das Für und Wider möglichst vollständig im Klaren ist. Wichtig dabei ist Verlässlichkeit. Setzt man Technologien eines etablierten Herstellers ein, der ein Image hat, zu dem Verlässlichkeit gehört, dann hat man es als Nutzer vergleichsweise einfach. Dabei war es in der Vergangenheit eine Selbstverständlichkeit, dass die Verlässlichkeit daher rührte, dass eine Prüfung durch Menschen (idR Experten) stattfand. Denen man im Fall der Fälle auch auf die Finger hauen konnte. Genau das ist aber bei KI nicht der Fall. Kein Anbieter validiert die Ergebnisse, und alle halten schön das Schild "Keine Haftung, auf eigenes Risiko" hoch, loben die Software aber in den allerhöchsten Tönen und vermitteln damit ein Maß an Verlässlichkeit, das zumindest Stand heute noch nicht erreicht ist.
Das ist für unbedarfte Nutzer im Umgang mit geschäftlichen Daten hochriskant und daher eigentlich nur tragbar, wenn ein Nutzer die Validierung selbst übernehmen kann. Das dürfte für 98 % der Nutzer nicht der Fall sein. Passt aber gut in die heutige Zeit, dass "Leistung" und Haftung gänzlich entkoppelt werden.
Ich bin kein Gegner von neuen Technologien und auch nicht von KI. Im Gegenteil: Ich nutze sie gerne als eine Art "Denksprechpartner" und behaupte mal ganz keck von mir, sowohl die
Wawi als auch deren Datenbank als auch den aktuellen Qualitätsstand der Software auf der einen und die Leistungsfähigkeit von aktuellen LLMs darauf bezogen sehr gut einschätzen zu können. Ich würde aber im Traum nicht auf die Idee kommen, etwas zu verwenden, das ich nicht selbst verstehe. Nicht für mein eigenes Business, und schon gar nicht für das meiner Kunden.
Wenn eine KI die Wawi wirklich verstehen soll, benötigt sie eine entsprechend große Menge an Trainingsdaten. Da reicht eben nicht nur, die DB-Struktur einzulesen und zu verstehen, wie die Views geschrieben sind, so hilfreich das auch ist. Sie müsste wissen, wie die Applikation geschrieben ist, alle Bugs kennen, also bspw. den Issuetracker sowie das Forum komplett scannen und auch die jeweils genannten Lösungen und Workarounds lernen. Wobei man dann durchaus die Frage beantworten müsste, inwieweit die Urheber dieser Lösungen/Workarounds der Verwendung zum Training überhaupt zugestimmt hätten...
Dass Ihr selbst offenkundig nicht besonders tief in der JTL-Wawi steckt, sieht man recht gut an diesem Thread:
https://forum.jtl-software.de/threads/ameise-importiert-artikelbeschreibung-nicht.244032/
Natürlich ist es nicht ausgeschlossen, dass es sich nicht um den von mir genannten Bug handelt, aber aktuell ist es halt noch sehr wahrscheinlich. Deutlich wahrscheinlicher jedenfalls als das, was Eure Software ausspuckt. Sollte sich meine Vermutung als wahr herausstellen, ist das ein echtes Negativbeispiel, was die Leitungsfähigkeit der Software angeht. Denn wenn sie wirklich gut wäre, dann würde sie diesen Bug zumindest erwähnen, gerne als erstes, weil das eben aktuell noch am wahrscheinlichsten ist.
Natürlich wird Eure Software auch Gutes und sehr Hilfreiches produzieren (weil das eben bereits der Fall ist, wenn man mit den üblichen Modellen arbeitet), das will ich hier gar nicht in Frage stellen. Ob etwas aber gut oder zumindest hilfreich ist, das können die allermeisten User nicht sofort erkennen. Was aber noch viel Schlimmer ist: Sie werden nicht erkennen können, wenn etwas wirklich komplett falsch ist, obwohl es super gut und fancy aussieht. Mit all den potentiell negativen Folgen.
Es wird sicher der Tag kommen, an dem die Fehlerquote vernachlässigbar gering ist bzw. der eines handelnden Menschen mit entsprechender Expertise entspricht. Der ist nur noch nicht gekommen. Daher kann ich so ein Angebot wie das Eure nicht für gut heißen, zumindest Stand heute nicht.
By the way: Wie genau sichergestellt ist, dass keine personenbezogenen Daten den Rechner, auf dem die Software läuft, verlassen, ist leider nicht genau dokumentiert. Da muss man sich also auf Euer Wort verlassen. Da aber bereits im Schritt 2 die "lokale" KI und damit wohl "nur" ein "kleines" Modell zum Einsatz kommt, wäre ich da schon skeptisch, ob das als Filter wirklich ausreichend ist. Und dass man die Pseudonymisierung ausschalten kann... Hui!