El profesor de universidad que regaló a Google los cimientos de su imperio

El profesor de universidad que regaló a Google los cimientos de su imperio
Sin comentarios Facebook Twitter Flipboard E-mail
vodafone

WSL Branded Content

Expertos en Branded Content

Cuando Google debutó en Nasdaq, allá por 2004, su valor en bolsa ascendía a los 27.000 millones de dólares. Cada acción se compraba a 85 dólares. Hoy, la capitalización bursátil de Alphabet sobrepasa los 400.000 millones y sus acciones de clase A bordean los 1.000 dólares.

Pero la compañía de Menlo Park fundada en 1998 le debe gran parte de su éxito a una sola idea, a un algoritmo de búsqueda que más tarde se convertiría en el motor de posicionamiento más eficaz de todo Internet.

Una deuda consciente

Un algoritmo que no nació de Google, sino de un matemático italiano. Massimo Marchiori es el padre de HyperSearch, el «hiperbuscador» que vertebró el trabajo de Google como motor de búsqueda. Este matemático podría vivir como uno de esos multimillonarios de Silicon Valley, pero prefirió trabajar como profesor en la Universidad de Padua (Italia), por un sueldo de 2.700 euros al mes.

El matemático Massimo Marchiori podría vivir como uno de esos multimillonarios de Silicon Valley

Hace 21 años, cuando aún era estudiante, Massimo dio una conferencia en Santa Clara (California), frente a un tal Larry Page y su colega Sergey Brin, que permanecían sentados entre el público.

Aquellos serían los fundadores de Google y la respuesta a la idea del italiano fue rotunda: «Una gran idea. En cuanto llegue a Stanford voy a crear un motor de búsqueda a gran escala», como narra el propio Massimo en el vídeo.

Ordenando el caos: HyperSearch

Toolbar

Antes de HyperSearch, el «ciberespacio» era un escenario de caos y repeticiones. Los motores de búsqueda rastreaban la información textual. Es decir, no existía la clasificación temática, ni una interacción entre páginas. Esta clasificación era análoga a la que podríamos hacer con los tomos de una enciclopedia en una biblioteca.

En los primeros buscadores no existía la clasificación temática, ni una interacción entre páginas

El algoritmo que desarrolló Marchiori se fundamenta en dos elementos capitales: las consultas a la página y las búsquedas generales en Internet. De esta forma se diseñaba una jerarquía de prioridades: por efectividad (popularidad) y calidad del contenido (análisis). La clasificación de estas páginas individuales arrojaba datos más “consecuentes”.

¿Por qué algoritmos? A mediados de los 90, Internet crecía tan rápido que era imposible validar directorios manualmente. Hacía falta un sistema responsable de mantener las búsquedas actualizadas. Se diseñaron distintos motores y los sistemas de recuperación empezaron a funcionar a toda máquina. Pero los mecanismos de indización automática resultaron fácil de “trucar”. Técnicas como el spamdexing se convirtieron en un dolor de cabeza para aquellos autores a los que les clonaban contenido.

1024x512 03

Para combatir esto, se analizaron otros recursos, como los enlaces externos de los usuarios web: el algoritmo asigna mayor relevancia a aquellos recursos más interconectados. Si el texto del enlace que apunta al recurso coincide con los términos de la consulta, el algoritmo lo premia dándole prioridad.

Usando como punto de partida el trabajo de Marchiori, Jon Kleinberg diseñó el ‘Hyperlink-Induced Topic Search’, un algoritmo de análisis de enlaces que puntúa las páginas según sus redes de información. El resto es PageRank.

Páginas que hablan con otras páginas

Busqueda

En Alphabet, donde actualmente trabajan 62.000 personas, han cambiado muchas cosas, como sistema de empresas (conglomerado) y como proveedor tecnológico. La estructura de PageRank y, por ende, del motor de Google, sigue siendo similar: aunque la psicosis por llenar la antigua barra de pagerank ha desaparecido, el actual hereda la misma fórmula.

En esencia, un enlace útil de la página A a la página B se interpreta como un voto. Las páginas con más votos son más “importantes” para el buscador.

Cada web depende de la retroalimentación de otras webs, de cómo valoran su relevancia: la fama llama a la fama

De 1 a 10, si una web posee un PageRank de 3, significa que más le vale espabilar o acabará enterrada en el buscador. Bandera roja. Si la página logra un 10 de puntuación, significa que lo tiene todo para el éxito. Aún así puede no aparecer en la escala de las 1-100 primeras páginas. ¿Por qué?

Esta es una importancia relativa; la estructura métrica no lo es todo. Dependes del feedback externo, de la retroalimentación de otras páginas. Ellas son las que te ayudan a crecer dando visibilidad y replicando contenido. Quienes miman su presencia en Internet, ganan. La fama llama a la fama. Esta es la ciencia: ser un pesado. Simple estadística. Porque esta valoración no va asociada a «satisfacción de compra», sino a «conveniencia en la red».

Una transformación consecuente

Cambios

Línea temporal de los cambios más recientes llevados a cabo en el algoritmo de Google. Fuente: Sunburn Technologies

Google ha cambiado nuestra forma de consumir Internet. Acudimos a zonas de seguridad: nuestras búsquedas ya no arrojan resultados rocambolescos. Pero en ese llevarnos de la mano nos perdemos gran parte del contenido. Herramientas como “autocompletar” nos lanzan sugerencias a cada momento. Navegamos más deprisa pero de forma más rutinaria.

El Google con buscador dinámico, asociando grupos de palabras y ofreciendo búsquedas personalizadas, nació en 2003. Después del análisis por volumen, aquel que premiaba la cantidad y la actualización, llegó el sistema ‘On-line Page Importance Computation’ (OPIC).

Y, sí, Google penaliza cada vez más duro. Porque cada vez existe más oferta de contenido deseando posicionarse

Esto perfiló el nuevo cambio. Existen dos niveles fundamentales que Google tiene en cuenta. El primero es el nivel de página, ese que determina la calidad de la web en base a las etiquetas de cada entrada (keywords), uso de títulos adecuados, extensión específica del contenido, imágenes optimizadas —con descripciones, poco tamaño y URL acorde al contenido—, etcétera.

El segundo es el nivel web: Google da más valor a páginas con buscador y buena información de contacto (sitemap), aquellas que realizan actualizaciones periódicas de contenido antiguo, inyectando vídeo, con diseño responsive (que se adapte al dispositivo de visualización), con enlaces frecuentes a medios fiables y, cómo no, optimizadas para móviles, donde el consumo de navegación no sea elevado.

Y, sí, Google penaliza cada vez más duro. Porque cada vez existe más oferta de contenido deseando posicionarse. Mes a mes, su inteligencia desafía la pereza de miles de webmasters.

Fe en el caos

Massimo

Según Massimo Marchiori, ni el primer HyperSearch ni PageRank «han tenido en cuenta el comportamiento de las personas». Todos anhelan la primera página. Y las estrategias de posicionamiento natural son cada vez más artificiales.

Las estrategias de posicionamiento natural son cada vez más artificiales: todos pelean la primera posición

Mediante el SEO (Search Engine Optimization), se marcan las reglas de legibilidad, difusión e interactividad y ficheros de datos (robots.txt) para ponérselo fácil a las arañas de los buscadores. Concuerdan producto y dominio, pero a cambio se diseñan contenidos redundantes a través del uso estratégico de palabras (keywords), donde cada caracter forma parte de una lucha interna por el posicionamiento.

Las personas cambian, hablan distintos idiomas. En 2001, los investigadores Gregory Grefenstette y Julien Niocheen determinaron que hacia 1997 más del 80% de Internet estaba escrito en inglés. En la actualidad esta lengua representa el 54% de uso. En 2013 ya mostraba síntomas de debilidad. Y la tendencia muestra que este decrecimiento seguirá dándose en todo el mundo.

1024x512 02

No todo el World Wide Web Consortium (W3C) está de acuerdo con el trabajo de Google. Marchiori, como miembro oficial y colaborador de iniciativas como ‘Platform for Privacy Preferences’ (P3P) o ‘Web Ontology Language’ (OWL), percibe un cambio, una necesidad.

No todo el World Wide Web Consortium (W3C) está de acuerdo con el trabajo de Google

Cada cierto tiempo surgen alternativas que cuestionan el trabajo de Google. Volunia, diseñado por el propio Massimo, era un motor de búsqueda europeo donde podíamos ver Internet como si viésemos una ciudad desde un avión. Es decir, la navegación era virtual, pero también física, al poder interactuar con los diferentes medios. La meta de Volunia era convertir todo Internet en una especie de red social, algo que ya ha hecho China con WeChat y que parece funcionar muy bien.

Massimo confía en una tercera generación de buscadores, cuando el motor de búsqueda se libere del recuadro donde los usuarios ponen las palabras clave, y comience a dialogar con el usuario. Donde ese Oráculo de Delfos en el que metes palabras clave y esperas resultado divino se transforme en un coloquio activo. No uno marcado por empresas.

Comentarios cerrados
Inicio