MDB Datenbank - Datensatz zu groß
- FlowHeater-Team
- Autor
- Offline
- Administrator
Weniger
Mehr
4 Jahre 2 Monate her #4006
von FlowHeater-Team
gruß
Robert Stark
MDB Datenbank - Datensatz zu groß - Beitrag(4006) wurde erstellt von FlowHeater-Team
Guten Morgen zusammen,
Wir können sehr viele Files einlesen. Bei einigen Files haben wir aber große Abweichungen in den Spaltennamen, dann bricht der Datenimport mit der Fehlermeldung "Datensatz zu groß" ab.
Sobald wir einige Spalten im File weglöschen, dann geht es.
Was müssen wir einstellen?
Freundliche Grüsse
A. Ochsner
Anfrage per Email erhalten
Wir können sehr viele Files einlesen. Bei einigen Files haben wir aber große Abweichungen in den Spaltennamen, dann bricht der Datenimport mit der Fehlermeldung "Datensatz zu groß" ab.
Sobald wir einige Spalten im File weglöschen, dann geht es.
Was müssen wir einstellen?
Freundliche Grüsse
A. Ochsner
Anfrage per Email erhalten
gruß
Robert Stark
Bitte Anmelden oder Registrieren um der Konversation beizutreten.
- FlowHeater-Team
- Autor
- Offline
- Administrator
4 Jahre 2 Monate her #4007
von FlowHeater-Team
gruß
Robert Stark
FlowHeater-Team antwortete auf MDB Datenbank - Datensatz zu groß - Beitrag(4007)
Hallo Herr Ochsner,
das Problem ist hier, dass MS Access pro Datensatz max. 2000 Bytes (.MDB JET Datenbanken) speichern kann. Neuere Versionen (.ACCDB) kommen mit eingeschalteter UNICODE Komprimierung auf ca. 4000 Bytes pro Datensatz in einer Tabelle.
Hinweis: Memo bzw. Langtextfelder sind von dieser Begrenzung ausgenommen, diese werden anderes abgespeichert.
Ich vermute, dass die Daten in einigen CSV Dateien diese Grenze überschreiten, deswegen wird hier der Fehler ausgegeben. Deshalb funktioniert es, wenn Sie einige Spalten aus der CSV Datei entfernen.
Workaround: Evtl. die Tabelle auf zwei oder mehrere Tabellen erweitern oder aber überlegen wo ggf. der Einsatz von Memo bzw. Langtextfeldern sinnvoll ist.
das Problem ist hier, dass MS Access pro Datensatz max. 2000 Bytes (.MDB JET Datenbanken) speichern kann. Neuere Versionen (.ACCDB) kommen mit eingeschalteter UNICODE Komprimierung auf ca. 4000 Bytes pro Datensatz in einer Tabelle.
Hinweis: Memo bzw. Langtextfelder sind von dieser Begrenzung ausgenommen, diese werden anderes abgespeichert.
Ich vermute, dass die Daten in einigen CSV Dateien diese Grenze überschreiten, deswegen wird hier der Fehler ausgegeben. Deshalb funktioniert es, wenn Sie einige Spalten aus der CSV Datei entfernen.
Workaround: Evtl. die Tabelle auf zwei oder mehrere Tabellen erweitern oder aber überlegen wo ggf. der Einsatz von Memo bzw. Langtextfeldern sinnvoll ist.
gruß
Robert Stark
Bitte Anmelden oder Registrieren um der Konversation beizutreten.
Ladezeit der Seite: 0.266 Sekunden