Optimizar JPEGs: ¿Baseline o Progressive?

Nueva forma de optimizar las imágenes Web: JPEG Progresivos

En este segundo artículo queremos hablar de nuevo de las imágenes, aunque ya cubrimos como optimizar las imágenes para web, mencionamos este formato y nos vemos obligados a desarrollar un poco más porque es tan importante este formato de cara a optimizar el web performance de una página web.

Las imágenes pueden estar en formato progresivo desde mucho antes, pero es ahora cuando más navegadores aceptan su descarga

Los que usáis webpagetest.org para comprobar la velocidad de vuestra página web, habréis podido ver que han incluido recientemente esta nueva característica para ver si las imágenes de la web cargan en formato progresivo o baseline.

Las imágenes son uno de los puntos más importantes en la optimización web, pues son junto al javascript los archivos que suman más tamaño, ganando las imágenes por mucho.

Que diferencia una imagen Baseline de una imagen progressive?

velocidad WebTodo el que navegue con frecuencia por internet ha sentido esto pero quizás no percibas la diferencia ya que si no sabes el concepto es fácil que no veas ninguna diferencia.

Pondré un ejemplo; estás navegando una web, entras en su página y ves un hueco vacío hasta que pasados unos segundos, voilá! Aparece una imagen que antes no estaba. Esto es el formato baseline; la imagen no se muestra hasta que no se descarga por completo, el navegador la interpreta y después, una vez termina este proceso la muestra.

Sin embargo, en la misma situación si el jpeg fuera progresivo, verías que la imagen se carga por capas, la primera de ellas, sería evidentemente de menor calidad que cuando se cargue la imagen completa; pero ya ves la imagen. Y aquí es donde está la gran diferencia, ya que la velocidad que percibe el visitante es incluso más importante que la velocidad real.

 

comparativa-navegadores-jpeg-progressive

 

Bueno, una vez claro que los jpeg en formato progressive son más rápidas que las imágenes en formato baseline pasemos a comentar algunas herramientas para comprobar el estado de los JPEG

Herramientas para comprobar o cambiar estado de JPEGS de baseline a progressive

Evidentemente, no es algo que vayas a dominar ni mucho menos con un simple artículo, pero si sigues las siguientes prácticas, seguro que vas a mejorar muchísimo la carga de tu sitio:

  1. Photoshop. Abrir archivo, click en guardar para web. Si el JPEG es progressive, tendrá activada la casilla “progressive”
  2. Image Optim: Si el archivo resultante tiene menor tamaño, image optimm lo convierte a progressive de forma automática
  3. Smush.it. El maravilloso servicio de la plataforma developer de Yahoo, convierte automáticamente los JPEG de baseline a progresive, ya sea en medio de un proceso de optimización de imágenes vía comandos, o subiendo dichas fotos al servidor de yahoo para descargarlas después manualmente
  4. Google mod_pagespeed: Esta extensión de servidor tiene un filtro que traduce automáticamente cualquier imagen con más de 10kb, automáticamente a formato progressive

Cambios en Google en 2012

Un repaso por el histórico de cambios de Google en 2012

El otro día estuve repasando la guía de cambios del algoritmo de google de SEOMOZ, donde se enumera un histórico de cambios del algoritmo desde el año 2000.

Sabía que 2012 ha estado repleto de cambios, incluso casi más que en todos los años anteriores…pero decidí comprobarlo manualmente y efectivamente, desde el año 2000 a 2011, Google ha efectuado 59 grandes cambios en el algoritmo y en la experiencia de búsqueda en sí, frente a 39 que han ejecutado durante 2012.

De estos 39 cambios, quiero repasar los más importantes por si empiezas en el mundo del SEO, te has llevado retenido en un zulo durante 2012 o mucho peor aún, llevas un año si internet! Si este es el caso, te recomiendo que revises también el fenómeno MEME o el Ola k Ase (Ase SEO o ke Ase), porque seguro que ahora no entiendes la mitad de lo que ves en la red. 😀

Incorporación de “Search plus your world”

Este cambio no influye directamente en el algoritmo, pero si mucho sobre la experiencia de búsqueda y la muestra de los resultados de búsqueda. Lo más destacable es la completa integración con Google plus usando datos de perfiles sociales incluyéndolos en las SERPS

Panda 3.2, 3.3, 3.4, 3.5, 3.6,3.7,3.8, 3.9 y #20-#23

Ay, los osos Panda!!! recuerdo que era un animal que despertaba ternura, tranquilo con su bambú…se veía como algo tierno, hasta 2011 donde se convirtió en la reencarnación del mal para muchos SEOs y webmasters.

Todas estas actualizaciones de Panda, hasta aumentar un porcentaje mayor de queries cada vez, se centran en los resultados de mala calidad, contenido duplicado y otra serie de prácticas SEO que hasta 2011, algunas eran incluso consideradas positivas.

Google local: Venecia

Una de las principales mejoras de la experiencia de búsqueda en mi opinión. Básicamente le dá mayor relevancia a los resultados locales combinándolos con datos del knowledge graph y haciendo las búsquedas de forma local por defecto, rastreando la ubicación del usuario a través de su navegador.

Actualización Google Venice

De la mano con otro de los principales cambios, la integración de Google places con google plus, en Google plus local, hace que ahora más que nunca, si tienes un negocio local, debas centrarte tanto en conseguir “citation” como en aumentar la posición de tu negocio en los resultados de búsquedas locales.

Anti Adsense Copypasters

Realmente no es que se centrara en esta actualización en los “webmasters” con webs dedicadas exclusivamente a generar ingresos con Adsense, esto es algo más propio de #Panda, pero se centró en bajar la posición de aquellos sites con demasiados anuncios arriba del fold, que es/era por lo general una característica de este tipo de sitios

Penguin: The ranking dead

meme penguinComo leí en un blog, Google está consiguiendo que hasta ahora tiernos animales, empecemos a considerarlos como verdaderos adoradores de Satán sin ninguna consideración ni interés salvo jodernos la vida. Seguro que la próxima actualización con nombre de animal puede llamarse de la siguiente manera.

La comunidad SEO estuvo (algunos aún están) revolucionados con esta actualización que atacó sobre todo a sitios con links profiles de baja calidad, ya sea por cantidad de enlaces desde directorios de poco valor, enlaces con anchor text exacto de forma desproporcionada o intercambios y granjas de links….vamos, lo que el 90% de los SEO han hecho durante años, generando enlaces a través de inserción, intercambio o enlaces desde páginas propias, así como agencias insertando copyrights, módulos y plantillas de CMS como wordpress, etc.

penguin is coming

Sin duda la más cruel de las actualizaciones de 2012. También conocida como la actualización contra la sobreoptimización, pues incluye el keyword stuffing, el ya comentado anchor text de poca variación y otras señales que según Google son características de sitios “spam”.

Conjunta a esta actualización, se lanzó otra donde miles de webmasters recibieron los famosos mensajes de eliminación de enlaces “no naturales” (Link warnings), revolviendo los más oscuros y tenebrosos miedos de muchos negocios que se hundieron de la noche a la mañana, beneficiando a otros en el proceso.

Empresas como JCPENNEY o por castigo por participar en esquemas de links; Iacquire, fueron borradas del buscador.

Y  lo peor de todo es que si sigues con estás prácticas o parecidas, participando en esquemas de links de una forma u otra, la cosa no acaba aquí, y mejor que vaya preparándote porque…

EMD Dominios de coincidencia exacta

Esta es una de las actualizaciones más gordas, pues cambia completamente una tendencia y al igual que penguin, agrede directamente uno de los atajos más grandes hasta ahora: comprar un dominio con la keyword en cuestión para que cuando se busque esta, obtuviera un buen posicionamiento, independientemente del contenido prácticamente. ¿Cuantas veces vemos auténticos resultados basuras por un keyword donde el #1, #2 y #3 son un dominio con diferentes extensiones? Y ese competidor cuya web no vale para nada y sigue saliendo por encima por esa palabra clave? Bien, esta puede ser una de las explicaciones más probables.

Aunque no le han quitado todo su valor a este tipo de dominios, ya le han metido mano, e imagino que en el futuro es algo que acabará perdiendo totalmente su valía. Hasta ahora afecta supuestamente a este tipo de dominios pero cuyo contenido es clasificado como spam o poca calidad, así como los que son puros mirrors de otras páginas

Interfaz de búsqueda de Image Search

El otro día leí un artículo que se había publicado un estudio de que aquellas webs que recibían tráfico desde la búsqueda de imágenes de Google, habían perdido el 80-90% dele volumen anterior, pues con la nueva interfaz no es necesario entrar a la página para ver, o copiar una imagen.

No se si habrá quejas de este tipo de sites, pero lo que si tengo claro es que es algo muy positivo desde el punto de vista del usuario, aparte de que el nuevo diseño, con algo parecido al efecto masonry, es algo beneficioso y de hecho, en gran cantidad. ¿Por qué?

  • Menos consumo de ancho de banda
  • Necesitas navegar menos entre páginas (volver a la búsqueda o entrar al sitio)
  • La información de las imágenes se muestran con un simple click
  • Las imágenes se pueden copiar o ver parecidas sin salir de la lista de resultados
  • Con la nueva interfaz, se muestran muchas más imágenes por página
  • No hay paginador, es un efecto scroll to load, por lo que mucho más sencillo para el usuario

Página de 7 resultados

Una baza más para esos que afirman que el SEO ha muerto. Google ha estado probando las páginas de 7 resultados en lugar de 10, que unidos a los anuncios de ppc y al que comentaremos ahora, Knowledge graph, los resultados orgánicos están más cerca de estar ocultados del fold que nunca.

Knowledge Graph

Con este cambio, en la misma página de resultados se muestra mayor información del resultado en la barra derecha, desplegando suficiente información en muchas búsquedas como para no tener que hacer click para ver toda la información.

Knowledge graph Calimero

Los tipos de datos mostrados varían desde la Internet Movie Database, wikipedia, google plus local, etc.

Con este cambio se pretende, y consigue, dar un empujón a las búsquedas semánticas, el futuro de las búsquedas en Google

Este es el resumen de los cambios durante 2012. Este año no está siendo tan ajetreado pues apenas llevamos dos actualizaciones de Panda durante 2013 y no se han producido cambios en la experiencia de búsqueda, pero no podemos despistarnos….PENGUIN IS COMING!

El HTML 5…. ¿Futuro Incierto?

W3C y WHTWG se separan

insignia html5Esta semana ha salido una noticia a la luz que me preocupa bastante: Los dos organismos que se ocupan del estándar HTML5 se separan por problemas entre ellos.

Estos dos organismos (W3C y WHATWG) no logran ponerse de acuerdo en la velocidad de evolución del estándar y la WHATWG ha decidido mandar a paseo a la W3C para que el HTML5 avance más rápido.

Bueno, ¿Por que preocupa esto? Tengo varios proyectos de SEO anclados al estándar y su evolución en por ejemplo, un nuevo nombre, me lleva al traste con lo que tengo hecho actualmente.

Por otra parte, creo que tienen toda la razón y que de verdad la W3C no está centrada en esto pues aunque ahora se escucha más este nuevo estándar, es cierto que se creó hace más de 4 o 5 años y aún no es oficial, para la W3C claro. Seguir leyendo…