Generelles Problem von X5
Autor: Klaus G.Hallo Leute,
ich bin der Meinung das X5 ein generelles Problem hat.
Ich sage mal 95% aller Anwender wundern sich warum ihre Webseite von den MegaBytes her so groß
ist und warum sie einen schlechten PageSpeed haben.
Ganz einfach:
1. Zeigt es unter Projektanalyse einen falschen Wert (Größe der Webseite) an, der nach z.B. Export auf ein Laufwerk dann wesentlich größer ist.
2. Weder die ganzen CSS und JS sind komprimiert, was bei einer Seitenanzahl z.B. 20 Seiten einige MegaBytes sind die man sich einsparen kann.
3. Bilder komprimieren ist letztentlich USER Angelegenheit ob er es macht.
Oberwichtig wäre für alle USER dass die ganzen (ausnahmslos alle, auch die aus den PlugIn Ordnern) CSS und JS komprimiert werden.
Inco könnte doch ein Modul entwickeln bzw. die Strategie ändern was EXPORT angeht.
Ich könnte es mir so vorstellen das der Export zuerst auf ein Laufwerk erfolgen soll und hier sollte dann ein Modul sein in dem ich alle Ordner anwählen kann um die darin befindlichen CSS und JS Datein (in einem Batch Verfahren) zu komprimieren.
Nach dem dies erledigt ist kann man dann das optimierte Projekt mit "Export der Webseite ins Internet" durchführen.
So wie es jetzt ist, wird der Export ohne jegliche optimierung (CSS, JS) ins Netz gestellt.
Mir ist der Gedanke deswegen gekommen, da ich schon öfters mal gelesen habe das Google nicht optimierte (CSS, JS, Videos und Images) Seiten weniger Rankt als optimierte und vor allem auch wegen dem PageSpeed. Google will Speicherplatz sparen und durch die schiere Anzahl an unoptimierten Seiten, kommt Google natürlich (gezwungener Maßen) auf die Idee die Anforderungen für Ranking usw. zu erhöhen.
Ich selber mach die optimierungen alle nachträglich (außer Bilder, das mach ich schon vorher). Es ist jedesmal ein je nach anzahl an Seiten doch ein größerer Zeitlicher Aufwand, aber es rentiert sich. Ordentlicher Speed und wenig gemecker betreffend SEO.
INCO könnte sich in dieser Richtung eventuell mal was einfallen lassen
Ich habe es auch an den Papst geschickt das er es auch weiterleitet (dies ist für das kommende Wunder ...)
Gruß
MCMACMASTER
https://csscompressor.com/
https://javascript-compressor.com/
https://htmlcompressor.com/
Also etwas kann man schon rausholen damit. 1kb bei css und js
Was tragischer ist finde ich die Fehler die der Generator produziert:
Beim HTML Compressor sind es 4kb die reduziert wurden.
Jetzt muss man mal alles durch die Kompressoren laufen lassen und dann einen vorher und nachher Testlauf bei z.B. SEORCH machen.
Dann hat man ein Ergebnis wo man mit arbeiten kann.
Gruß
Andreas
@Klaus G.
Dem kann ich nur voll und ganz zustimmen!
Und wäre wirklich kein riesen Aufwand sowas direkt einzubauen.
Autor
Hallo Andreas,
"Und wäre wirklich kein riesen Aufwand sowas direkt einzubauen." Es müsste so gestaltet werden das es sogar (SCUSSI) der größte DAU es versteht.
Mit http://refresh-sf.com/https://de.piliapp.com/minify/yui-compressor/https://jscompress.com/ und https://www.iloveimg.com/de/bild-komprimieren/jpg-komprimieren erledige ich es wesentlich schneller als wie mit deinen Vorschlägen, da die meinigen alle Drag & Drop sind und ich keine Fehler danach habe.
http://refresh-sf.com/ geht leider nur bis zu einer Dateigröße von max. 1MB. Für alles über 1MB nehme ich die anderen. Diese Variante find ich noch am besten.
Aber es ist halt sehr Zeitaufwendig wenn man mal 20 oder weit aus mehr Seiten hat.
Bei einem Projekt von mir 25 Seiten, kann ich dadurch über 7MB einsparen, das ist schon eine ganze Menge.
Deswegen wäre wie oben schon mal geschrieben:
"Inco könnte doch ein Modul entwickeln bzw. die Strategie ändern was EXPORT angeht.
Ich könnte es mir so vorstellen das der Export zuerst auf ein Laufwerk erfolgen soll und hier sollte dann ein Modul sein in dem ich alle Ordner anwählen kann um die darin befindlichen CSS und JS Datein (in einem Batch Verfahren) zu komprimieren.
Nach dem dies erledigt ist, kann man dann das optimierte Projekt mit "Export der Webseite ins Internet" durchführen."
Wenn das Modul zur Anwendung kommen würde, würde es auch seine Zeit in Anspruch nehmen um die Aufgaben zu erledigen, aber es wäre SEO, Speicherplatz und Speed Technisch schon ein rießiger Schritt nach vorne.
So wie es jetzt ist, klatschen zu 95% der USER ihre Seiten ohne komprimierung oder sonstiger optimierung auf den Server und das geht GOOGLE gewaltig auf den SACK.
Autor
Was ein ganz genialer Schritt wäre, wenn die ganzen PlugIn CSS, JS zusammen (1x CSS und 1x JS) gefasst und mit den Images in einem Ordner wären, statt in vielen.
Oder das die PlugIns nach Anzahl der Seiten gesammelt werden und auch hier nur ein Ordner mit den zusammen gefassten Dateien ist.
Hätte den Vorteil es müsste nur pro Seite 1x CSS und 1x JS geladen werden.
Auch dies wäre ein gewaltiger Schritt nach vorne.
Hier in diesem Forum sind Screenshots (eingestellt worden) vorhanden auf denen man die Projektgröße von über 1 GigaByte sieht. Das sind dan schon gewaltige Projekte und da kann es mit SEO und komprimieren (CSS, JS) nicht funktionieren, da sind dann die USER überfordert.
Also bei dem css und js compressor gibt es drag&drop
deine Links schau ich mir mal an.
Was ein ganz genialer Schritt wäre, wenn die ganzen PlugIn CSS, JS zusammen (1x CSS und 1x JS) gefasst und mit den Images in einem Ordner wären, statt in vielen.
Du kannst die doch in einer Datei packen.
Autor
Hallo Andreas,
offenbare mir doch dein Geheimniss
Autor
Ich habe mal den HTML Compressor getestet, das ist eine KATASTROPHE. Dieser Compressor kann keine Umlaute.
Du mu auf UT 8 umstellen.
eine css datei macht ja keinen sinn oder?
dann ist doch deine Loadtime wieder unten.
Schön und gut, aber was bringt das wenn du die Seiten in WSX5 machst? Wenn du angenommen bei einer durchschnittlichen Website 50 Seiten hast und du musst ja für jede Seite eine CSS bzw. JS Datei komprimieren ist das zwar am Anfang gut, aber sobald du im Design etwas änderst, dann werden die CSS Dateien wieder neu gespeichert und die alten überspeichert.
Wenn es also nicht direkt vom Programm ausgeht die Komprimierung (was wahrscheinlich ein sehr aufwändiges Verfahren ist) dann ist das für Websites die sich immer ändern komplett sinnlos oder sehr zeitaufwändig.
Autor
Hallo Andreas S.,
also, wenn ich um die 15 bis 20 Sec. warten muss bis sich mal auf einer Webseite was tut, bin ich weg.
Viele haben einen Shop und wollen doch darüber Einnahmen generrieren. Wenn sich die Webseite flott bewegt, besteht doch die Möglichkeit das es gut funktioniert. Wenn ich jetzt aber immer ewig warten muss bis sich was tut und das auf jeder Seite, ist das schlecht für das Geschäft.
Wenn Inco zuminntest für die Haupt CSS und JS ( PCCSS, RES, STYLE und ADMIN->CSS) diese Kompressions-Modul bringen würde, wäre vielen (besonderst die mit Shop) schon sehr geholfen. Es ist bekannt, das je schneller die Seite ist, der Besucher auch weiter auf der Webseite bleibt und nicht gleich wiedr abspringt:
Also Aufwendig ist so ein Compressor Modul nicht!!! Auf der Website ist nur ein JavaScript was diese Aufgabe erledigt.
Natürlich ist es Aufwendig wenn man man an der Seite etwas ändert und die dafür nötige .css und .js Datei neu geschrieben wird dann darf man wieder händisch für diese Seite die entsprechenden Dateien abändern das ist klar.
15-20 Sekunden ist unterirdisch aber das sind dann nicht nur die .css & .js Dateien sondern meistens zu fette Bilder.
Wenn es wirklich 15-20 Sekunden dauert ist nicht die CSS oder JS Schuld die haben höchsten ein paar Kb.
Was ich eher glaube ist, dass es viele Bilder sind oder Galerien die man auf eine einzige Seite stopft die dann mehrere MB hat und auf dem Handy dann ewig dauert bis es die Seite reingeladen hat.
Autor
Das ist richtig, in den meisten Fällen sind es die Bilder die zu hauf vorhanden sind und nicht komprimiert werden. Das traurige ist ja, das die meisten mit der ganzen komprimierungs Geschichte eigentlich überfordert sind.
Ich versuche immer mein bestes um SEO- und Speed Technisch das optimal machbare für die Webseit zu erreichen.
Dagegen ist nichts zu sagen! Allerdings bewegen wir uns im Millisekunden Bereich wenn du die CSS und JS komprimierst.
Naja wegen der größe gibt es eigentlich nie Probleme dafür sind die Leitungen oder auch die Mobil Anbindungen doch recht schnell geworden.
Google braucht eben viel Platz dafür auf den Servern und die Technik ist teuer kann uns aber Latte sein. Nur das eben dann die Webseite abgewertet wird. SEO meckert über nicht komprimierte css und js dateien. Darum geht es ja hier was von der Software natürlich möglich wäre wenn man das den so will.
Autor
Naja, mobile Anbindung in Deutschland ???
Wenn ich in der Stadt bin und gerade ziemlich na an einem Masten dann ja, aber auf dem Land schaut die Sache schon anderster aus.
Ich denke, wenn alle ihre Webseiten bestens komprimieren (CSS und JS) und sich um die Serverseitige komprimierung kümmern, dann kommen die Provider und auch Google nicht so schnell auf dumme IDEEN .
Es ist einfach die Masse die abgerufen wird. Und natürlich gibt es immer noch sehr schlechte Ecken in Deutschland das ist wohl wahr.
Also um zum Ende hier zu kommen. Liebe Entwickler von INCO schaut doch mal auf die Compressor Seiten da gibt es ein ziemlich kleines JavaScript das die ganze sache so klein macht.
Ansonsten muss dann eben jeder für sich wissen ob er sich die Arbeit macht oder nicht. Den nur alleine wegen etwas kleiner machen bedeutet nicht ganz weit oben zu stehen. Dazu benötigt man Geld damit man die ganze Sache puschen kann. Es gibt einfach schon zu jedem Thema eine Seite und wenn die gut gemacht ist dann und warum sollte dann die eigene Seite weiter vorne stehen ? Da muss schon richtig was gutes sein das eine Suchmaschine ihren Index deswegen umbaut. Deshalb immer ehrlich mit dem Kunden bleiben und weiterhin viel Erfolg.