Neu JTL SQL Datenbank jede Sekunde sichern

xadoX

Sehr aktives Mitglied
11. September 2012
622
48
Wir sind auf der Suche nach einer Möglichkeit unsere SQL-Datenbank dauerhaft zu sichern. Bisher nutzen wir SQLBackupandFTP für eine tägliche Sicherung.
Allerdings merken wir, dass eine tägliche Sicherung im Fall der Fälle nicht ausreichen würde, denn alle Aufträge, Lieferscheine, Lagerbewegungen, Artikeländerungen uvm. die bis zum Zeitpunkt des Ausfalls gelaufen sind, könnten nicht wiederhergestellt werden.

Daher suchen wir eine Möglichkeit, die unsere SQL-Datenbank bei jeder Änderung (daher sekündlich) sichert.

Wer hat das bereits umgesetzt und kann Umsetzungsvorschläge geben?

Ich bin dankbar für jedes Feedback

Viele Grüße
Thomas
 
  • Gefällt mir
Reaktionen: Farhad Haidari

hula1499

Sehr aktives Mitglied
22. Juni 2011
5.257
1.195
Sekündlich? Ein Backup? :D

Wenn Platz und Verteilung der Backups keine Rolle spielt:

.) diff oder transaction log backup einfach alle 1 Min. ausführen lassen

mit dem Full backup halt dann in 1/3/6/12h intervallen herumspielen, wie du es gerne hättest.
 

mh1

Sehr aktives Mitglied
4. Oktober 2020
1.583
480
Wir sind auf der Suche nach einer Möglichkeit unsere SQL-Datenbank dauerhaft zu sichern. Bisher nutzen wir SQLBackupandFTP für eine tägliche Sicherung.
Allerdings merken wir, dass eine tägliche Sicherung im Fall der Fälle nicht ausreichen würde...
Das ist genau die Überlegung, die ganz zu Beginn durchgeführt werden sollte: Wieviel Daten dürften im schlimmsten Falle verloren gehen?

Wenn du z.b. das Transaktionsprotokoll alle 15 min. sicherst:
Datenbankserver wird um 9:01 zerstört -> Restore des letzten Fullbackup und alle Transaktionsprotokolle bis 9:00 = 1 Minute Datenverlust
Datenbankserver wird um 9:14 zerstört -> Restore des letzten Fullbackup und alle Transaktionsprotokolle bis 9:00 = 14 Minuten Datenverlust
Datenbankserver wird um 9:38 zerstört -> Restore des letzten Fullbackup und alle Transaktionsprotokolle bis 9:30 = 8 Minuten Datenverlust

Was auf euere Datenbank in einer, acht, oder 14 Minuten los ist (also wieviel Daten in dem Zeitraum tatsächlich geändert werden), also den möglichen Aufwans dfürs Nacharbeiten dieser Daten, müsst ihr ins Verhältnis zum Verwaltungsaufwand für das Backup bzw. Kosten für die vorzuhaltenden Ressourcen setzen (Speicherplatz, Fachwissen für den Restore, Manpower...))



Daher suchen wir eine Möglichkeit, die unsere SQL-Datenbank bei jeder Änderung (daher sekündlich) sichert.
Diese Anforderung hört sich eher nach einer Art Hochverfügbarkeitslösung an. Schau dir dazu z.b. die Optionen LogShipping oder AlwaysOn an.


Wer hat das bereits umgesetzt und kann Umsetzungsvorschläge geben?
Ein sekündliches Backup hab ich noch nie gesehen.

Die häufigste mir bekannte Backupstrategie ist 15 Minuten.
Also z.b.
am ersten des Monats => Vollständig
täglich um 04:00 => Diff
viertelstündlch => Log Backup

Das hängt aber auch alles von der Datenbankgröße ab. Ich kenne auch Installationen wo jede 15 Minuten ein vollständiges Backup gemacht wird (das ist dann beim Restore das Einfachste)
 
  • Gefällt mir
Reaktionen: SebiW

Verkäuferlein

Sehr aktives Mitglied
29. April 2012
2.516
1.005
Wir sind auf der Suche nach einer Möglichkeit unsere SQL-Datenbank dauerhaft zu sichern. Bisher nutzen wir SQLBackupandFTP für eine tägliche Sicherung.
Allerdings merken wir, dass eine tägliche Sicherung im Fall der Fälle nicht ausreichen würde, denn alle Aufträge, Lieferscheine, Lagerbewegungen, Artikeländerungen uvm. die bis zum Zeitpunkt des Ausfalls gelaufen sind, könnten nicht wiederhergestellt werden.

Daher suchen wir eine Möglichkeit, die unsere SQL-Datenbank bei jeder Änderung (daher sekündlich) sichert.

Wer hat das bereits umgesetzt und kann Umsetzungsvorschläge geben?

Ich bin dankbar für jedes Feedback

Viele Grüße
Thomas

Ich bin weder SQL noch Backup-Experte, würde da aber 3 Ansätze sehen.

1.) Virtualisierung mit laufender Snapshot-Sicherung.
2.) Hybrid-Datenbank bzw. Datenbankcluster.
3.) Häufigere Backups während der Hauptzeiten oder kurz nach den Hauptzeiten.

Die Frage ist natürlich auch, wie groß Ihr seid und was ein Ausfall / Datenverlust bedeuten würde und welche Szenarien diesen verursachen können.

Es bringt ja nichts, wenn Ihr in jeder Sekunde ein Voll-Backup erstellt und dafür nicht weiter als 12 oder 24 Stunden zurück könnt, falls eine Kompromittierung oder ein Fehler weiter zurückliegt.

Wir sichern den kompletten Server mittels Active Backup for Business von Synology auf ein Synology Nas (das passiert voll automatisch in kurzen Zeitabständen).

Parallel haben wir ein Backup-Script, welches in einer gewissen Stundentaktung, die auf unsere Arbeitszeiten abgestimmt ist nur die SQL-DB sichert und auf verschiedene Systeme verteilt (Onsite und Offsite).

Zusätzlich werden alle erzeugten Dokumente in Echtzeit (in eine Richtung) synchronisiert.

So sollten eigentlich nur minimale "Löcher" in der Datenbank entstehen können und selbst wenn in dieser Zeit viel gearbeitet wurde, die entsprechenden Dokumente noch vorhanden sein.

Aus meiner Sicht müsste man im Fall der Fälle dann also nur den Grund für das "Loch" in der DB dokumentieren, sofern sich nicht lückenlos alles wiederherstellen lässt, hätte alle Buchhaltungsrelevanten Dokumente und müsste nur mit hochgeschraubtem Nummernkreis oder neuem Nummerkreis weiterarbeiten und eine Inventur durchführen bzw. kann das Meiste auch manuell wieder "nacharbeiten".

Dass das erforderlich wird, sollte ja eigentlich der Ausnahmefall sein, bei uns ist dies 1x in 15 Jahren vorgekommen, weil das Mainboard vom Server das Raid der HDDs "geschreddert" hat. Damals konnte ich alles in mühevoller Kleinarbeit wieder rekonstruieren und habe jetzt eine tendenziell eher zu umfangreiche Backup-Strategie (besser haben als brauchen).
 

xadoX

Sehr aktives Mitglied
11. September 2012
622
48
Hallo zusammen,

vielen Dank für Euren Input. Die Größe der Datenbank wäre sicherlich eine sinnvolle Ergänzung in meinem ersten Post gewesen 🙈
Unsere Datenbank ist 206 GB groß. Wir nutzen JTL schon seit 2010 und haben eine entsprechend große Datenmenge.

Sekündlich muss es nicht sein, aber wenn ich sehe was in 15 Minuten tagsüber alles passiert, hätte ich schon Sorge, dass die Nacharbeit des Datenverlusts recht kompliziert ist.

Kritisch sehe ich dabei die Lagerbewegungen im WMS und die Warenausgänge der Aufträge.
Wenn in 15 Minuten z.B. 50 Aufträge werden versendet und 150 Artikel gepickt werden komme ich an die Infos welche Aufträge rausgingen (außer vielleicht über die DHL Sendungsnummer im Versenden Portal) und welche Artikel von welchem Platz gepickt wurden nicht mehr ran.

Ist hier ein Service-Partner, der uns bei der Umsetzung unterstützen kann?
 

MichaelH

Sehr aktives Mitglied
17. November 2008
14.164
1.770
Warum verwendest du kein RAID-System für die Datenbank oder ein RAID-Subsystem das autonom arbeitet.
Dann hast du schon mal viel abgedeckt.

Zudem kannst du SQLBackupandFTP auf einen Intervall von 15 Minuten für ein DIFF-Backup einstellen oder auch mal prüfen ob 5 Minuten gut funktionieren.
50 Aufträge in 15 Minuten sind keine 50 MB mehr, sondern vielleicht 4 oder 5 MB.

Und unter Umständen ist es billiger die Daten von 50 Aufträgen erneut zu verarbeiten bzw. die Pakete doppelt zu versenden als einen IT-Aufwand zu betreiben der immense Summen verschlingt.
Perfektionismus ist teuer.
 

mvh

Sehr aktives Mitglied
26. Oktober 2011
766
275
Moin.
Viele interessante Vorschläge-
Ich würde noch eins hinzufügen:
das Backup über VSS ansteuern, wir haben eine Anwendung und es gibt mehrere davon, die über SQL Writer Dienst läuft.
 

Stephan K.

Sehr aktives Mitglied
14. Mai 2014
1.187
269
Ich als Laie in diesen Dingen hätte eher angenommen, dass genau dafür die AzureCloud mit der Always-On Verfügbarkeit gemacht wurde. Also quasi Spiegelung/Cluster.
Ansonsten scheint ein sekündliches backup wohl Schwierigkeiten mit sich zu bringen. Wenn der Server noch ein backup macht, dann wird ja das Transaktionsprotokoll etc. weiterhin mit den Änderungen beschrieben. Kaum ist er fertig, muss er die letzte backup-Sicherung schon wieder ausführen. Da könnte sich was anstauen, wenn das backup länger dauert als das Intervall. Und nur das Transaktionsprotokoll zu sichern, könnte auch zu wenig sein, je nachdem, wie eure DB aufgebaut ist (z.B. PDFs im Auftrag speichern, Rechnungen nur einmal täglich erzeugen lassen etc).

Entweder diff-backups alle paar Minuten; die sollten auch nicht ewig Ressourcen binden.
Oder ein FULL Backup und nur das Transaktionsprotokoll regelmäßig sichern.
Oder Spiegelung ("Software" online von Microsoft oder hardware-eigen mit z.B. RAID)

Und auf jeden Fall: Mal an nem ruhigen Tag den Ausfall und die Wiederherstellung testen.

Die Workflows oder sonstige Tasks sollte man mit ihren Ausführungszeitpunkten bei der individuellen Planung nicht vergessen.
 

mvh

Sehr aktives Mitglied
26. Oktober 2011
766
275
Ich bin mir nicht sicher, ob ein DIFF-Backup bei einer 206GB Datenbank alle paar Minuten realisierbar ist.
Eine Transaktionslogdatei wächst sehr schnell, das haben wir ausprobiert. Wenn man nicht aufpasst - kommt unerwartet "Transaction log full".
Ich würde es lieber einem sehr fähigen SP überlassen.
 
  • Gefällt mir
Reaktionen: SebiW

SebiW

Sehr aktives Mitglied
2. September 2015
2.634
1.238
Ich tröte mal ins gleiche Rohr und stelle fest: Hier redet man nicht über Backups sondern über Always On Verfügbarkeitsgruppen die dann natürlich ebenfalls regelmässig mehrfach redundant gesichert werden müssen.
Mehr Infos dazu gibts hier:
https://learn.microsoft.com/de-de/s...ility-groups-sql-server?view=sql-server-ver16

Das ist was für einen wirklich fähigen Dienstleister wenn die entsprechenden Kompetenzen in der Firma nicht vorhanden sind.
Und natürlich reden wir dann auch über richtig viel Asche ;)
 

MichaelH

Sehr aktives Mitglied
17. November 2008
14.164
1.770
@mvh

Wie gesagt, mit RAID wäre doch die größte Gefahr vermieden.
Die werden einen ordentlichen Server haben und es gibt anschließbare Sub-Systeme die das absichern.
Ich komme noch aus einer Dinosaurier-IBM-Welt und das gab es für Maimframes mit 1000 Usern schon in den 1980er Jahren und heute sind das nur noch ein Bruchteil der Kosten.
Später wurden Mainframes direkt mit RAID-Systemen ausgeliefert mit einem Adressraum von TByte, 1990er Jahre.

Nun ist 2023.

Wir haben RAID (intern) mit SQLBackupandFTP alle 30 Min. und Full-Backup in der Nacht.
 

MichaelH

Sehr aktives Mitglied
17. November 2008
14.164
1.770
Ich tröte mal ins gleiche Rohr und stelle fest: Hier redet man nicht über Backups sondern über Always On Verfügbarkeitsgruppen die dann natürlich ebenfalls regelmässig mehrfach redundant gesichert werden müssen.
Mehr Infos dazu gibts hier:
https://learn.microsoft.com/de-de/s...ility-groups-sql-server?view=sql-server-ver16

Das ist was für einen wirklich fähigen Dienstleister wenn die entsprechenden Kompetenzen in der Firma nicht vorhanden sind.
Und natürlich reden wir dann auch über richtig viel Asche ;)

Wie weit sollte Kompetenz in der eigenen Firma vorhanden sein ?
Wie sollte ein Support-Vertrag aussehen, wenn dieses Konstrukt am Abend versagt ?
Komplexität kann auch nach hinten losgehen.
Perfektion kostet Unmengen an Geld.
 
  • Gefällt mir
Reaktionen: Verkäuferlein

SebiW

Sehr aktives Mitglied
2. September 2015
2.634
1.238
Raid ist das eine h
Wie weit sollte Kompetenz in der eigenen Firma vorhanden sein ?
Wie sollte ein Support-Vertrag aussehen, wenn dieses Konstrukt am Abend versagt ?
Komplexität kann auch nach hinten losgehen.
Perfektion kostet Unmengen an Geld.
Support Verträge gibts da auch mit Instant Reaction. Kost halt ein Schweinegeld - halt in etwa so viel wie ne eigene IT Abteilung mit redundanter Besetzung vorzuhalten - oder auch gerne mehr ;)

Und der Sinn eines multiredundaten Konstruktes ist ja dass es nicht einfach so versagt. Damit eine gescheit aufgesetzte multiredundante Always On Verfügbarkeitsgruppe versagt brauchts schon was. Zb ein Windows Update :D

Ich sehs ja wie Du, Raid, Backup verteilt, gut ist. Aber wenn der Anspruch 100% Verfügbarkeit ohne Zeitausfall ist, dann kann man das schon bauen. Jedes Promille Verfügbarkeit erhöht halt die Kosten exponentiell.

Zb stehen unsere Shopserver bei Hetzner redundant in Finnland und DE. Wenns einen zieht springt der Availability Cluster auf der anderen Seite an. Wenns nur aber den DE-CIX zieht oder die Russen ne Atombombe abwerfen, dann langt das auch nicht ;)

Gilt ja auch für Raid: Hardwareraid heisst single point of failure im Raidcontroller, heisst Raidkarte mehrfach vorhalten. Dafür mehr Performanz als Softwareraid. Wenn nu aber ein Bösewicht mit ner Axt an meinen Serverschrank geht hilft mir auch mein Raidverbund nimmer.
 

mvh

Sehr aktives Mitglied
26. Oktober 2011
766
275
@mvh

Wie gesagt, mit RAID wäre doch die größte Gefahr vermieden.
Die werden einen ordentlichen Server haben und es gibt anschließbare Sub-Systeme die das absichern.
Ich komme noch aus einer Dinosaurier-IBM-Welt und das gab es für Maimframes mit 1000 Usern schon in den 1980er Jahren und heute sind das nur noch ein Bruchteil der Kosten.
Später wurden Mainframes direkt mit RAID-Systemen ausgeliefert mit einem Adressraum von TByte, 1990er Jahre.

Nun ist 2023.

Wir haben RAID (intern) mit SQLBackupandFTP alle 30 Min. und Full-Backup in der Nacht.
Wir haben RAID intern und externe Festplatten (Backups) und 2 x Netzwerk-Festplatten (auch RAID)
und mehrmals täglich FULL-Backups.
Aber im schlimmsten Fall steht der Betrieb trotzdem 1 - 2 Stunden oder länger still.
 

MichaelH

Sehr aktives Mitglied
17. November 2008
14.164
1.770
Ausfall ist das Eine, Datenverlust das Andere.

Mit Ausfall kann ich / man leben, Datenverlust ist tatsächlich für alle ein Problem.
Auch wenn ein Raid-Controller abraucht sind die Daten noch da.

Wir haben das Server-Mainboard doppelt gekauft, denn der Rest ist einfacher zu ersetzen.
Es gibt also einfache Tricks um weniger Sorgen zu haben.
 

mh1

Sehr aktives Mitglied
4. Oktober 2020
1.583
480
Sekündlich muss es nicht sein, aber wenn ich sehe was in 15 Minuten tagsüber alles passiert, hätte ich schon Sorge, dass die Nacharbeit des Datenverlusts recht kompliziert ist.
Die von mir genannten 15 min. waren ja auch nur ein Beispiel. Ob du die LOG Sicherung jetzt alle vier, sechs oder 10 Minuten machst, bleibt ja dir überlassen.
Ich würde einfach mal mit verschiedenen Zeiten testen.

Aber mittlerweile geht es ja in dem Thread um Hochverfügbarkeitslösungen (z.b. AlwaysOn). Das ist ja was anderes wie deine ursprüngliche Frage nach dem Backup.

Ist hier ein Service-Partner, der uns bei der Umsetzung unterstützen kann?
Ja. Hier im Forum sind auch Service Partner unterwegs. Am besten, du schreibst in die Jobbörse.
 

Verkäuferlein

Sehr aktives Mitglied
29. April 2012
2.516
1.005
Zb stehen unsere Shopserver bei Hetzner redundant in Finnland und DE

Oha, dass sind die beiden ersten Ziele für Angriffe aus dem Osten, zum Glück ist das detusche Hetzner-RZ nicht auch noch in Berlin... :p 😁

Support Verträge gibts da auch mit Instant Reaction. Kost halt ein Schweinegeld - halt in etwa so viel wie ne eigene IT Abteilung mit redundanter Besetzung vorzuhalten - oder auch gerne mehr ;)

Und der Sinn eines multiredundaten Konstruktes ist ja dass es nicht einfach so versagt. Damit eine gescheit aufgesetzte multiredundante Always On Verfügbarkeitsgruppe versagt brauchts schon was. Zb ein Windows Update :D

Ich sehs ja wie Du, Raid, Backup verteilt, gut ist. Aber wenn der Anspruch 100% Verfügbarkeit ohne Zeitausfall ist, dann kann man das schon bauen. Jedes Promille Verfügbarkeit erhöht halt die Kosten exponentiell.

Zb stehen unsere Shopserver bei Hetzner redundant in Finnland und DE. Wenns einen zieht springt der Availability Cluster auf der anderen Seite an. Wenns nur aber den DE-CIX zieht oder die Russen ne Atombombe abwerfen, dann langt das auch nicht ;)

Gilt ja auch für Raid: Hardwareraid heisst single point of failure im Raidcontroller, heisst Raidkarte mehrfach vorhalten. Dafür mehr Performanz als Softwareraid. Wenn nu aber ein Bösewicht mit ner Axt an meinen Serverschrank geht hilft mir auch mein Raidverbund nimmer.

Das ist ja der Punkt, am Anfang steht halt immer die Analyse. Welche Risiken und Folgen möchte ich absichern und wieviel Budget möchte ich dafür bereitstellen.

Man kann auch auf jedem Kontinent der Welt oder in jedem Land der Erde einen Cluster aufstellen, der wieder in jedes andere Land der Erde eine online- und offline-Datensicherung durchführt, die dann in einem Temperatur- und Luftfeuchtigkeits-regulierten Atombunker gelagert werden. damit ist man dann sehr nahe an 100% Ausfallsicherheit und sehr Nahe bei 0% Datenverlustrisiko. Vielleicht kann man zur Sicherheit auch noch den Mond mit einbeziehen. 😁;)

Mit üblichen Methoden und ggf. einem Cluster kommt man aber für die meisten Fälle auch nah genug an Anforderungen zur Daten- und Ausfallsicherheit. Zumal es ja nicht um lebensnotwendige Daten geht, sondern "nur" um die Vermeidung von zusätzlicher Arbeit und Ärger mit dem FA.

Wie weit sollte Kompetenz in der eigenen Firma vorhanden sein ?
Wie sollte ein Support-Vertrag aussehen, wenn dieses Konstrukt am Abend versagt ?
Komplexität kann auch nach hinten losgehen.
Perfektion kostet Unmengen an Geld.

Im Falle von Perfekt(ion) wäre es aber auch kostengünstig. ;)

Man sollte halt möglichst viele Szenarien möglichst einfach abdecken und dann darauf hoffen, dass man das meiste umsonst, aber leider nicht kostenlos getan hat. Meistens tritt sowieso das Szenario ein, welches man nicht bedacht hat (oder die, die man bedacht hat fallen halt nicht auf, weil man sie eben bedacht hat) und man muss dann spontan agieren / reagieren.

Meiner Erfahrung nach ist es dann am Besten, man verlässt sich nicht auf einen möglichen Lösungsweg, sondern hat vorab mehrere Ansätze geschaffen (z.B. Systembackup, Datenbankbackup, Datensicherung, RAID, Cluster/HA,...)

Wir haben RAID intern und externe Festplatten (Backups) und 2 x Netzwerk-Festplatten (auch RAID)
und mehrmals täglich FULL-Backups.
Aber im schlimmsten Fall steht der Betrieb trotzdem 1 - 2 Stunden oder länger still.

Ähnlich sieht es bei uns auch aus. Und auch da gibt es Szenarien (z.B. länger eingenisteter Angreifer), die einem auch da noch das Genick brechen können.

Ausfall ist das Eine, Datenverlust das Andere.

Mit Ausfall kann ich / man leben, Datenverlust ist tatsächlich für alle ein Problem.
Auch wenn ein Raid-Controller abraucht sind die Daten noch da.

Wir haben das Server-Mainboard doppelt gekauft, denn der Rest ist einfacher zu ersetzen.
Es gibt also einfache Tricks um weniger Sorgen zu haben.

Wobei man auch da überlegen muss, welche Daten tatsächlich "lebenswichtig" sind.
Keine Ahnung, wie das Finanzamt damit umgeht, wenn Dir z.B. von 2 Tagen die Buchhaltungsbelege / Daten in der Wawi fehlen, etc., Du das aber dokumentiert hast, warum es so ist und dann mit einer Inventur in einem "neu aufgesetzten" System weitermachst.

Ist hier ein Service-Partner, der uns bei der Umsetzung unterstützen kann?

Hier im Forum ist doch auch ein MSSQL-Profi (ich meine von einem Service-Partner aus Berlin) unterwegs, ich komme jetzt allerdings leider nicht auf den Namen bzw. Nutzernamen.
 

SebiW

Sehr aktives Mitglied
2. September 2015
2.634
1.238
Man sollte halt möglichst viele Szenarien möglichst einfach abdecken und dann darauf hoffen, dass man das meiste umsonst, aber leider nicht kostenlos getan hat. Meistens tritt sowieso das Szenario ein, welches man nicht bedacht hat (oder die, die man bedacht hat fallen halt nicht auf, weil man sie eben bedacht hat) und man muss dann spontan agieren / reagieren.
Das unterschreib ich mit Blut. Mein absolutes alltime Highlight war ein langsam sterbender Raidcontroller (Plastiknase unter Kühler war gebrochen, Prozessor überhitzte temporär immer wieder und erzeugte Bytefehler) der erst die eine Hälfte des Raids zerlegt hat (und der Fehler fiel nicht auf da der Controller eben selber gemuckt hat), sich dann über Nacht selbst in Replikation geschickt und dabei unsere Mails der letzten Jahre in den Orkus geschickt hat. Ah ja, die Backups waren Müll weil er auf die replizierte Backupplatte auch Datenschrott geschrieben hat. Livedaten kamen von den gesunden Platten, Backup lief von den defekten (die völlig in Ordnung waren aber half vom Controller mit Müll beschossen wurden). Gleichzeitig gabs nirgendwo Meldungen weil der Controller weiter der Meinung war alle Daten auf den Platten seien konsistent und in Ordnung. DAS war geil.
Zum Glück hatten wir noch weitere Backups im Mailserver...
 
  • Gefällt mir
Reaktionen: MichaelH
Ähnliche Themen
Titel Forum Antworten Datum
Neu JTL DHL-Wunschzustellung > neues Feature Feiertage Plugins für JTL-Shop 0
Neu JTL Adressen Integration in TK Anlage (Estos) Schnittstellen Import / Export 0
Neu PlugIn: JTL GPSR Plugins für JTL-Shop 1
Neu GPSR - Sicherhheitsdatenblatt - Ausgabe aus JTL User helfen Usern - Fragen zu JTL-Wawi 2
Neu Fehler 500 bei Versandmeldung an Amazon über JTL-eazyAuction Amazon-Anbindung - Fehler und Bugs 1
Aktuelle Störung der SCX-Schnittstelle und weiterer JTL-Systeme Störungsmeldungen 1
Neu JTL POS - Feste Kundennummer Einrichtung / Updates von JTL-POS 1
Neu Wawi Auftrag in JTL POS öffnen (problem mit Kartenzahlung) Allgemeine Fragen zu JTL-POS 0
Neu Retourenmanagement im JTL Shop Allgemeine Fragen zu JTL-Shop 1
Neu Vergleich Shopware 5 / 6 zu JTL Shop 5 Betrieb / Pflege von JTL-Shop 7
Neu JTL Artikel auf Shopify als Varianten anzeigen Shopify-Connector 2
Neu JTL über LTE quälend langsam Installation von JTL-Wawi 11
JTL-Search - Hardwarestörung auf einem der Search-Server (s7) Störungsmeldungen 0
Neu JTL Shop 5.4 - Seite 1 verschachtelt sich bei klick auf Seite 1 JTL-Shop - Fehler und Bugs 0
Neu Wie erstelle ich Bundles mit JTL Wawi? User helfen Usern 0
Neu HubSpot Anbindung an JTL-Wawi (CRM) User helfen Usern 2
Neu JTL WMS / WaWi / Retouren - Kundeneigentum an Kunden schicken Arbeitsabläufe in JTL-Wawi 4
JTL Voucher wird nicht versendet Einrichtung / Updates von JTL-Vouchers 0
Neu JTL-Ameise -Export - Alle Lieferanten funktioniert nicht JTL-Ameise - Fehler und Bugs 1
Neu JTL-Ameise -Export - Alle Lieferanten funktioniert nicht JTL-Ameise - Fehler und Bugs 0
Neu Update JTL Wawi von 1.0.0.0 auf 1.8.10.0 Installation von JTL-Wawi 8
Neu Shop 5.4 - Error 500 mit aktiviertem JTL Debug JTL-Shop - Fehler und Bugs 8
JTL-Vouchers und Shopify Allgemeine Fragen zu JTL-Vouchers 3
JTL-SHO 5 standard, downgrade zu CFE-Version, beide gehostet bei JTL Einrichtung JTL-Shop5 4
Neu Ausgabeweg => Beschreibungen werden nicht von JTL Wawi gezogen für Shop/ebay/sonst was User helfen Usern - Fragen zu JTL-Wawi 3
JTL-Stammtisch Köln 21.11.24 powered by go eCommerce Messen, Stammtische und interessante Events 0
Neu JTL Shop 5.4.0 eigene Inhalte/Seiten hinzufügen nicht möglich JTL-Shop - Fehler und Bugs 5
Neu JTL Shop Subscription wurde durch Umstellung auf "Advanced Edition" teils doppelt berechnet Allgemeine Fragen zu JTL-Shop 1
Neu JTL-Shop 5.4 - Aktuell 5.4.0 Releaseforum 0
Mailausgabe in JTL WaWi steuern (Rechnung mailen, Auftrag mailen etc.) JTL-Wawi 1.9 0
Neu JTL Pos + Epson Bondrucker - plötzlich keine TSE-Verbindung Allgemeine Fragen zu JTL-POS 0
Neu Dienstleistungen rund um JTL WaWi, WMS, Fulfillment Dienstleistung, Jobs und Ähnliches 2
JTL-MeetUp x eBay am 14.11.24 Messen, Stammtische und interessante Events 0
Neu Eigener Datenaustausch anstelle JTL-Connector? WooCommerce-Connector 3
Neu In Filiale umbuchen mit Packungsgröße und dort mit JTL-POS einzeln "verkaufen" User helfen Usern - Fragen zu JTL-Wawi 3
Neu direkte Anbindung jtl wawi zu otto User helfen Usern - Fragen zu JTL-Wawi 3
Störungen im Abruf von Extension-Store-Lizenzen durch JTL-Shops Störungsmeldungen 0
Neu JTL Shop5 Indexierung GSC - Seiten wurden innerhalb von Wochen aus dem Index geworfen Templates für JTL-Shop 10
Neu JTL-Connector Shopware aktuell nicht erreichbar Shopware-Connector 15
Neu Fehler 500 mit NOVAchild 5.3.1 in JTL-Shop 5.33 Templates für JTL-Shop 2
Neu JTL FEHLER! - JTL sendet falschen ISO-Code - Nordirland Versand mit DHL nicht mehr möglich JTL-ShippingLabels - Fehler und Bugs 4
Neu Betrug bei JTL? User helfen Usern - Fragen zu JTL-Wawi 3
Neu Alternative zu Sendcloud mit JTL Integration (Express Versand International) Arbeitsabläufe in JTL-Wawi 0
Neu Hat jemand die Transglobal API (oder das Excel Bulk tool) in JTL integriert ? User helfen Usern 0
Neu Shopartikel neu in JTL übertragen Shopware-Connector 0
Neu Anzeige der Vorgangsstatus im JTL Shop 5 Betrieb / Pflege von JTL-Shop 1
JTL Vouchers automatisch nach Zahlungseingang an Kunden versenden Allgemeine Fragen zu JTL-Vouchers 5
Neu Wichtige Infos zu GPSR-Attributen für JTL-eazyAuction und kommende JTL-Wawi Version 1.9.6.0 Einrichtung und Installation von JTL-eazyAuction 53
Neu JTL WAWI DPD Paketomat Österreich Druck-/ E-Mail-/ Exportvorlagen in JTL-Wawi 1
JTL-Stammtisch Bielefeld am 29.10.24 powered by DataWow/fivelab GmbH Messen, Stammtische und interessante Events 0

Ähnliche Themen