Seite 1 von 1
Instabilität bei größeren Daten
Verfasst: Di 18. Sep 2012, 14:50
von Daniele B.
Hallo,
ich habe mal eine Frage zu Libre Office. Ich habe mittelgroße Datenpakete (so ca. 40-50 Megabyte) und Libre Office (Calc) ist ab dieser Größe außerst instabil. Liegt das vielleicht an meinem Rechner? Ich habe Ubuntu 12.04 drauf und einen 8 Gigabyte Ram. Das Programm HTOP zeigt mir an, das nur knapp 4 Gigabyte gebraucht werden bei der Berechnung. Es ist also noch genügend Platz frei und der SWAP-Platz wird ebenfalls nicht benutzt. Muss ich bei Libre irgendetwas einstellen? mehr Ram kaufen? Habe als Grafikkarte eine Radeon HD 6450 mit ATI Treiber, sollte das an der Grafikkarte liegen?
Grafiken sind in der Berechnung nicht dabei... Einfach nur Zahlen und Formeln über mehrere Spalten und knapp über 300.000 Zeilen. Die Settings für den Arbeitsspeicher habe ich schon beide auf 256 gesetzt, mehr lässt sich leider nicht einstellen...
Was kann ich tun?
Gruß Daniel
Re: Instabilität bei größeren Daten
Verfasst: Di 18. Sep 2012, 16:41
von karolus
Hallo
300.000 Zeilen gehören nicht in eine Tabellenkalkulation, das sollte man besser in einer Datenbank lösen.
Falls du vorerst bei der Lösung bleiben möchtest, entferne möglichst alle Formelberechnungen, und nimm stattdessen den Datenpiloten.
http://de.openoffice.org/doc/oooauthors ... npilot.pdf
Karolus
Re: Instabilität bei größeren Daten
Verfasst: Di 18. Sep 2012, 17:00
von balu
Hallo Daniel,
Ich habe mittelgroße Datenpakete (so ca. 40-50 Megabyte)
Wenn es sich dabei um .ods-Dateien und nicht um .xls handelt, dann sind die nicht mehr mittelgroß sondern seeehr groß.
und Libre Office (Calc) ist ab dieser Größe außerst instabil.
Wie macht sich das bemerkbar? Woran merkst Du das LO instabil ist?
Grafiken sind in der Berechnung nicht dabei...
Sicher!?
Auch keine Diagramme und oder Bilder?
Einfach nur Zahlen und Formeln über mehrere Spalten und knapp über 300.000 Zeilen.
Aber dadurch kommt man doch nicht auf *so ca. 40-50 Megabyte*, wenn es sich nur um Calc-Dateien handelt.
Also, wie kommen die Daten in die Datei, von einem anderen Programm, oder aus dem Inter/Intranet? Wenn Inter/Intranet, dann kann es eventuell sein das sich kaum sichtbare Bilder/Grafiken beim reinkopieren mit eingeschlichen haben.
Es kann aber auch sein das sich Inter/Intranet Verknüpfungen in der Datei befinden, die nicht von Calc angesprochen werden können da keine Verbindung zum Inter/Intranet besteht.
Kann ja auch sein das die Formeln nicht grad optimal, oder so ähnlich, programmiert sind.
Deine Hardware ist aber nicht das Problem. Jedoch können wir nichts zuverlässiges sagen ohne etwas genaueres über die Datei(en) zu wissen, und ferner fehlt die Angabe deiner LO-Version.
Ansonsten ist natürlich der Vorschlag von Karolus auch eine Überlegung wert.
Gruß
balu
Re: Instabilität bei größeren Daten
Verfasst: Di 18. Sep 2012, 20:56
von Daniele B.
Hallo,
also es sind einfach nur Zahlen und Formeln mit Verweisen und Wenns und Abers ohne Diagramme oder Dergleichen und die Datei hat die .ods Endung... Ich habe eine neue Variable generiert und will nun ein paar Spalten (5) aus dem Datensatz mit jeweils 300.000 Zeilen neu nach dieser Variable sortieren, dabei stürzt LO regelmaßig ab. Die Datei ist 41 Megabyte groß und wie gesagt es sind nur knapp 4 Gigabyte RAM von meinen 8 belegt. Man kann förmlich sehen wie LO anfangen will und der RAM Anteil langsam kurz ansteigt um dann bei ca. 4 Gigabyte abzustürzen. Eingespeist habe ich sie ursprünglich mal mit Open Office aus ganz normalen .txt Dateien und jetzt bei meinem Wechsel zu Ubuntu einfach mit LO geöffnet und weitergerechnet (weil LO bei Ubuntu vorinstalliert ist). Es klappte ja auch alles reibungslos... bislang! Ich habe mir um eine effiziente Formelstruktur noch keine Gedanken gemacht, dachte ja ich hätte noch genug Luft bis die 8 Gigabyte Ram ausgeschöpft sind. Könnte es vielleicht daran liegen, dass ich mein CPU FX 6200 mit 6 Kernen, der auch die 64 BIT Version von Ubuntu schafft nur mit der 32 BIT Version fahre? Die 8 Gigabyte RAM werden mir jedoch korrekt angezeigt und ich habe sie eben beim booten auch mal getestet und die sind OK.
Was kann ich also tun, mal abgesehen von Datenbanken und effizienter Formelstruktur, das LO damit zurecht kommt? Gibt es Einstellungen, das ich LO mehr RAM Anteil zuweisen kann oder ist die Sortierung so anspruchsvoll, das ich den bereits verwendeten Speicheranteil mal 2 nehmen muss das alles im Hintergrund gut durchlaufen kann? Das würde heißen, ich brauche mehr RAM.
Gruß Daniel und vielen Dank erstmal für die Antworten
Re: Instabilität bei größeren Daten
Verfasst: Di 18. Sep 2012, 22:30
von balu
Hallo,
balu hat geschrieben:
Wie macht sich das bemerkbar? Woran merkst Du das LO instabil ist?
[...]
und ferner fehlt die Angabe deiner LO-Version.
Das habe ich nicht umsonst geschrieben. Bitte beantworten.
dabei stürzt LO regelmaßig ab.
Sicher!? Woran, und wann (1 minute oder 15 minuten) merkst Du das Lo abgestürzt ist?
Gruß
balu
Re: Instabilität bei größeren Daten
Verfasst: Di 18. Sep 2012, 23:09
von Daniele B.
Also habe noch die 3.5 Version, denn auf der Homepage klang es fast so als ob die neuere Version noch nicht stabil ist, denn konservative Nutzer sollten bei der 3.5 Version bleiben.
und wie ich merke das LO abstürzt? Es schließt sich einfach und beim erneuten offnen kommt die Dateiwiederherstellung ... Dauer? er rechnet nur ein paar Sekunden, dann schließt er sich.