Um als User etwas genauer herauszufinden, was die Divibib eh wissen wird, müsste man einen Netzwerk-Trace aufsetzen, der die Kommunikation zwischen dem Endgerät und den Servern aufzeichnet und analysiert und das am besten zu verschiedenen Tageszeiten. Aber wozu? Das hilft ja keinem, dann weiß man nur, wie es hängt, aber nicht wo und warum. Das weiß nur die Divibib und die braucht dazu wohl auch keinen Trace.
Aber je länger das nun schon geht, desto mehr habe ich das Gefühl, dass an vielen Stellen die historisch hinter der Onleihe steckende Logik vielleicht sehr logisch ist, aber durch Engpässe muss bzw. besonders unter Last selbst welche erzeugt, die sich rein aus ihr gar nicht erschließen, sondern erst aus "unlogischen" Betrachtungen, aus der typischen Diskrepanz zwischen Idealfall und schmutziger Realität.
Anders gesagt: Ich stelle mir vor, die Onleihe ist nicht besonders realitätsfest, zu theoretisch-ideal. Sonst müsste man doch schneller an den richtigen Schrauben drehen können, oder? Die IT-Fuzzies sprechen auch immer gerne von guter Skalierbarkeit. Und die ist ja nicht nur unter der ansteigenden Nutzerzahl zu betrachten, sondern sicher auch (anders, aber doch gleich bremsend wirkend) unter der wachsenden Zahl der Medien.
Ich hoffte, mit CARE und TEA würde auch das technische Gesamtkonzept neu gedacht. Aber da sind wohl zu viele Dinge unter einen Hut zu bringen. Und dazu kommen ja noch ganz andere Aspekte: https://netzpolitik.org/2018/d…nicht-im-netz-angekommen/