Skip to main content

in reply to Hiker

@Hiker
nun ich hab auch nur 2 User hier laufen und die lรคuft ca. 1,5 - 2 Jahre.
Ich hab auch keine Ahnung was da alles drinnen steht.
Parallel hab ich nun eine Sharkey (Misskey) Instanz am laufen - mal schauen wie sich da die Datenbank entwickelt.
in reply to Hiker

@Hiker @๐Ÿ‘ค ๐Ÿณ๐—ต๐—ผ๐—บ๐—ฎ๐˜€ โœ…๐Ÿ––๐Ÿ”’
Nur MyISAM Tabllen unterstรผtzen eine Optimierung.
InnoDB halt nicht.
Das Ergebnis ist nahezu das gleiche. MyISAM kann "on the fly" optimiert werden, InnoDB nicht.
Bei InnoDB wir die Tabelle Analysiert und und dann ohne Lรผcken neu erstellt (also sauber kopiert) - von daher die Meldung.
in reply to Raroun

@raroun Das lรถst #Friendica, je nach Einstellung selber aus. Aber wenn die Datenbank gross oder riesig wird, wird das offenbar ein langer Prozess. Mein Provider hat mich gemahnt, das sei zu lang, da wรผrde der automatische Backup-Prozess gestรถrt... @zwovierzwo @nick @feb
in reply to Hiker

@Hiker
Nicht alle Tabellen werden von Friendica automatisch optimiert.
Die Dauer der Optimierung hรคngt stark von der zur Verfรผgung stehen Leistung ab.
Hier dauert die Optimierung einer kompletten 160gbyte groรŸen Friendica Datenbank derzeit ca.25 Minuten.
in reply to Raroun

@raroun Ja und wenn genau in diese Zeit das Backup laufen soll, dann gibts einen Konflikt - Backup einer Datenbank, die gerade neu geschrieben wird, ist relativ schwierig... @zwovierzwo @nick @feb
in reply to Hiker

@Hiker
Das geht problemlos mit Dateisystem-Snapshots, machen wir auch so.
Be einem Shared hoster ist es leider schwierig nachvollziehen, bzw. zu erahnen wie dort die Datensicherungen durchgefรผhrt werden.
Eine Lรถsung hierfรผr habe ich nicht, aber vielleicht kann man mit dem Anbieter kommunizieren und eine Lรถsung finden, die beide Seiten zufrieden stellt.
Sollte dies fehlschlagen - aus welchem Grund auch immer - Anbieterwechsel und vorher die Anforderungen schildern.
in reply to Hiker

@Michael Vogel @Matthias โœ”
@Nordnick :verified: @๐Ÿ‘ค ๐Ÿณ๐—ต๐—ผ๐—บ๐—ฎ๐˜€ โœ…๐Ÿ––๐Ÿ”’
Man kann auch manuell ein ANALYSE und RECREATE durchfรผhren.
Irgendwann haben sich die Entwickler dazu entschieden, das im "OPTIMZE" fรผr InnoDB automatisch zu machen.
Die Meldung teilt nur mit, das hier ein alternativer Weg gegangen wird, der nativ nicht unterstรผtzt wird.
in reply to Matthias โœ”

@feb Aber wenn auf einer Ein-User-Instanz die Datenbank innert paar Monaten รผber 1 GB gross wird (trotz der automatischen Optimierung durch Friendica) und der Provider reklamiert, der Backup-Prozess werden immer wieder gestรถrt, wirft das Fragen auf.
Wenn ich den Provider richtig verstanden habe, wird jedes Mal, wenn worker gestartet wird (also relativ oft (alle 10 Min zB), wird auch an den Tabellen optimiert. @zwovierzwo
in reply to Hiker

Es gibt eine Option die man deaktivieren kann, die automatisch einige Tabellen optimiert, die regelmรครŸig geschrieben und gelรถscht werden.
in reply to ๐Ÿ‘ค ๐Ÿณ๐—ต๐—ผ๐—บ๐—ฎ๐˜€ โœ…๐Ÿ––๐Ÿ”’

Welchen Vorteil versprichst Du Dir davon? Den Platzbedarf hat man so oder so. Und wenn es sauber konfiguriert ist, lรคuft MariaDB auch mit groรŸen Datenmengen sehr schnell.
in reply to Michael Vogel

@Michael Vogel
Es geht prinzipiell nicht "nur" um die DatenbankgrรถรŸe sondern um die Geschwindigkeit. Aktuell lรคuft auf einer 8 Core Xenon und 32 GB Speicher sowie SSD eine #friendica .. und trotzdem wird die Instanz 1-single User und 1 Bot immer langsamer ...

Fรผr Projekte mit so groรŸe Datenmengen habe ich immer Postgres eingesetzt und fรผr schnelle immer wieder benรถtigte Info kommt eine Redis DB zum Einsatz.
Bisher bin ich damit sehr gut gefahren und hatte nie Probleme mit Geschwindigkeiten auch auf wesentlich schwรคcheren Systemen :thinking face:

Aber OK ist halt jetzt so ... und ich muรŸ schauen wie ich damit umgehe.

@Hiker @Matthias โœ”

in reply to Hiker

Das ist ungewรถhnlich lange. Bei meinem Account lรคdt /network nach dem Login in weniger als 5 Sekunden. Spรคter lรคdt die Seiter dann in weniger als 2 Sekunden. Meine DB von libranet.de ist 315 GB groรŸ.
in reply to xy..

My storage backend is filesystem. โ˜บ๏ธ
in reply to Steffen K9 ๐Ÿฎ

filesystem als storage scheint eine wichtige und grundsรคtzliche einstellung zu sein.

hier ein link zu einer anleitung um einen server einzurichten bzw und/oder umzuziehen:
https://tupambae.org/display/0ac89072-9365-5d9d-8485-599077309156
(noch in bearbeitung)

in reply to ๐Ÿ‘ค ๐Ÿณ๐—ต๐—ผ๐—บ๐—ฎ๐˜€ โœ…๐Ÿ––๐Ÿ”’

Hast Du die Datenbankeinstellungen angepasst oder lรคufst Du mir den Einstellungen der Distribution? Wenn man der Datenbank nicht ausreichend Speicher zur Verfรผgung stellt, wird sie sehr schnell langsam.
in reply to Nordnick :verified:

Wir cachen keine externe Medien. Wir cachen ausschlieรŸlich externe Avatare.
in reply to alfredb

Du kannst in den Admin-Einstellungen unter dem Menรผpunkt "Performance" das Speichern von Avatar-Bildern deaktivieren. Dadurch werden diese Bilder bei Dir langsamer geladen, aber der Datenzuwachs dรผrfte sinken.
in reply to alfredb

@alfredb
Hast du den Avatar-Cache nur deaktiviert oder das Verzeichnis gelรถscht?
In der DB werden nach dem Deaktivieren weiter eine Relation aufgebaut aber keine neuen Avatare angelegt. Nach einiger Zeit wird die Relation entfernt und du ziehst die Daten wieder direkt รผber das Netz (so zumindest meine Beobachtung)
in reply to Matthias โœ”

@Matthias โœ” Ich habe nur fรผr etwa einen Tag die Option deaktiviert. Ich schaue mir das nun aber nochmals genauer an.
in reply to Matthias โœ”

@Matthias โœ”

... oder das Verzeichnis gelรถscht?


Welches Verzeichnis meinst du denn?

BTW hรคtte ich erwartet, dass die Funktion "Re-fetch contact data" die Originalbilder erneut abholt.

in reply to alfredb

@alfredb
Ich habe spรคter verstanden, dass du eine Funktion im Adminbereich meinst.

Es gibt noch eine, die รผber die Config eingerichtet wird

	'avatar_cache' => false,
	'avatar_cache_path' => 'pfad',
	'avatar_cache_url' => 'https://url/avatar/',
in reply to Matthias โœ”

@Matthias โœ” Sieht bei mir leer aus.
$ bin/console config | grep avatar
system.avatar_cache => 
system.avatar_cache_path => 
system.avatar_cache_url => 
system.remote_avatar_lookup => 
system.cache_contact_avatar => 1
in reply to alfredb

@abu Hast du schon versucht, unter "Kontakte" auf den entsprechenden Account zu gehen und oben rechts "Aktionen" "Kontaktdaten neu laden" zu klicken? @helpers @powo01 @heluecht @zwovierzwo
in reply to alfredb

@abu Und entfolgen und dann wieder folgen auch nicht. Tja, solche Dinge hatte ich hier auch bei Sharkey... Die Avatare sind offenbar eine grosse Herausforderung im #Fediverse - auch in Bezug Speicherplatz... @helpers @powo01 @heluecht @zwovierzwo
in reply to alfredb

@alfredb
Nach dem Umstellen des Wertes, muss Du ein OPTIMZE fahren.
Das ist wie eine Defragmentierung bei HDDยดs.
Nur weil Beitrรคge gelรถscht werden, wir die Datenbankdatei nicht kleiner. Gelรถschte Beitrรคge machen Speicherplatz in der Datei frei, welcher wieder belegt werden kann, verkleinert aber nicht die Datenbank.
Das Verkleinern macht dann das OPTIMZE - die Datenbanktabellen werden dann ohne Lรผcken neu aufgebaut.
Das Ergebnis ist eine kleinere Datenbank auf dem Storage.
in reply to ๐Ÿ‘ค ๐Ÿณ๐—ต๐—ผ๐—บ๐—ฎ๐˜€ โœ…๐Ÿ––๐Ÿ”’

@๐Ÿ‘ค ๐Ÿณ๐—ต๐—ผ๐—บ๐—ฎ๐˜€ โœ…๐Ÿ––๐Ÿ”’
die mit Abstand grรถรŸten Tabellen sind bei mir apcontact mit 4,6GB und contact mit 4,3 GB. Friendica lรถscht wohl auch keine inaktiven Kontakt und mit dem grรถรŸer werdenden Fediverse werden wohl auch die potentiellen Kontakte mehr. Wรคre schรถn wenn man da mal aufrรคumen kรถnnte. Meine kleine Instanz hat jetzt auch langsam eine 22GB groรŸe Datenbank und das erscheint mir wirklich ein bisschen zu groรŸ.
in reply to Montag

@Montag

Meine kleine Instanz hat jetzt auch langsam eine 22GB groรŸe Datenbank und das erscheint mir wirklich ein bisschen zu groรŸ.


So weit mรถchte (und werde) ich es nicht kommen lassen. Da schalte ich das vorher ab.
@๐Ÿ‘ค ๐Ÿณ๐—ต๐—ผ๐—บ๐—ฎ๐˜€ โœ…๐Ÿ––๐Ÿ”’

โ‡ง