El “cable de Bilbao” y la importancia de la conectividad y latencia de las redes de comunicaciones

Hace unas semanas, aquí por Bilbao, nos levántabamos con la noticia que un cable submarino de Microsoft y Facebook uniría Virginia Beach en EEUU (buscando diversificación respecto a New York o New Jersey) con nuestra noble villa. Un total de 6.600 kilómetros de cable. El objetivo no era otro que crear una “autopista” en el mar que transfiriese datos a 160 terabits por segundo para así poder hacer uso de los servicios online de ambas compañías de una manera más rápida y estable.

Fuente: http://www.ecestaticos.com/image/clipping/654/d823ba912c77dc52d7dab539470417b3/imagen-sin-titulo.jpg
Fuente: http://www.ecestaticos.com/image/clipping/654/d823ba912c77dc52d7dab539470417b3/imagen-sin-titulo.jpg

Dos empresas, Facebook y Microsoft, entre las top-4 del mundo y de la tecnología ahora mismo. Bastante sintomático. El cable submarino de mayor capacidad de los que cruzará el Atlántico y el primero que conectará EEUU con la parte más sudeste de Europa. De ahí, estas empresas, quieren conectarse con ramas hacia África, Oriente Medio y Asia.

La búsqueda de un mayor ancho de banda responde al interés de muchas empresas por mejorar su conectividad y latencia. Ya he comentado en anteriores ocasiones, que el mundo se está conectando a una velocidad muy importante (incluso con dominios .cloud) y que además, muchas empresas están estudiando cambiar su paradigma y forma de definir la estrategia tecnológica y digital a través de las tecnologías cloud.

Esto me lleva a pensar que en unos años, a los ciudadanos, a las empresas, a los gobiernos, etc., nos preocupará más la latencia y conectividad de las comunicaciones que la capacidad de computación. Esto último, ya parece cada vez más commodity. Migramos más a la nube nuestro día a día, desde los propios datos (espacios de almacenamiento en la nube), hasta el procesamiento de los mismos, por lo que cada vez trabajamos más en nuestro ordenador o dispositivo móvil, pero disponiendo los datos y su computación en la propia nube.

Es más, la nueva informática cognitiva (próxima a nuestro cerebro), algorítmica (toma de decisiones en base a reglas y evidencias conocidas) y social (conexión entre humanos), mejora cada día a día gracias a la conectividad y los datos. Desde los bots, pasando por los algoritmos de cajas negras, hasta el paradigma blockchain como exponente de las arquitecturas abiertas, esta necesidad parece una tendencia sin freno.

Volvamos a España y nuestras necesidades. Actualmente, esa nube sobre la que trabajamos está fundamentelmente alojada en centros de datos de Irlanda, Países Bajos y Alemania. Esto puede tener sentido a sabiendas que las latitudes del norte de Europa ofrecen una climatología para refrigeración de las granjas de servidores en lugares fríos. Esa distancia física, no es problema, a sabiendas que la “demanda cloud”, no es tan grande como puede serlo en pocos años.

Sin embargo, esto pudiera cambiar si la latencia y conectividad se vuelven más críticas, y si encima, en España, seguimos desarrollando una industria de energías renovables fuerte (solar y éólica, que aprovechen nuestras singularidades geográficas y nuestra meseta y biodiversidad), que haga sostenible disponer de importantes equipos de refrigeración. En ese momento, es cuando podemos pensar en disponer de una industria de centro de datos en España. Creo que el movimiento de Facebook y Microsoft nos debe permitir anticipar la necesidad que habrá de llevar cables importantes a los mercados estratégicamente relevantes. Entre los cuales, esperemos esté España. Y cuando la latencia (suma de retardos temporales dentro de una red) sea crítica, no podremos permitirnos tener esos centros de datos a tantos kilómetros.

Ya sé que es un mantra, pero es que los datos no van a ser una industria secundaria. La Inteligencia Artificial ha mejorado gracias a los datos. El paradigma del Big Data, está transformando muchas industrias, y dando muchas palancas de competitividad.

Esto, desde una perspectiva de lo público, también debiera ser objeto de reflexión. Estamos adelantando una era en la que la creación de spin-offs, startups, etc., dependerá en gran medida de la conectividad y la baja latencia. Estamos hablando de una era en la que los emprendedores serán el vector de cambio más importante. Y por lo tanto, privarles de estas capacidades de computación en la nube, será mermarles la competitividad en un plano internacional. Lo que en otra época fue la electricidad o el acceso a mercados de capitales, en un futuro próximo serán la expresión en bits y las redes que permitan intercambiarlos a una velocidad realmente alta.

Por ello, quiero creer que nuestros representantes son conscientes del handicap de comunicaciones que tenemos en España. Y sé que estoy entrando en un tema ciertamente polémico. Pero no quería dejar de subrayar, que estamos hablando de un tema que afecta a todos, y como tal, debe ser resuelto también por una participación de las instituciones.

Como ven, la competitividad del Siglo XXI puede que se mida en conectividad y latencia. En España reunimos muchas características para que podamos disponer de una industria de centro de datos importante. Solo hace falta darnos cuenta de lo que tenemos.

La Inteligencia Artificial y el SEO: Google RankBrain

La Inteligencia Artificial es noticia por muchas cuestiones. El 2015, pasará a la historia como un año en el que este campo, que lleva con nosotros desde los 60, ha dado saltos cuánticos. Es conversación de muchos no solo por las posibilidades que abre, sino también por la supuesta amenaza que provoca a la existencia humana. El problema de todo esto es que, como con muchas otras capacidades tecnológicas que hemos ido los humanos desarrollando, su vector de crecimiento es comercial. Stephen Hawking ya alertó de ello en 2014, cuando dijo aquello de:

Potentially our worst mistake in history.

Desde entonces, el panorama no ha cambiado mucho. The Economist dedica en uno de sus últimos números a hablar de todo ello. En este artículo, habla de cómo este debate ya lo vivieron en la revolución industrial. ¿La diferencia? Que ahora automatizamos cerebros, no músculos. Y ahí puede radicar parte de la diferencia. Hasta la fecha, hemos dicho nosotros a los ordenadores lo que tenían que hacer. Aquí, como ya he señalado en alguna otra ocasión, creo que no nos quedará otra que tener intervención pública.

Mientras estas reflexiones quedan en el ambiente, vemos como las grandes tecnológicas, siguen pivotando su estrategia de futuro alrededor de los datos, la conectividad y la Inteligencia Artificial. IBM, se autodeclara el líder de la computación cognitiva. Facebook lo mismo. Y Google, se rebautiza como “Machine Learning first” company. De esta última, quería hablar, a colación de la entredilla que hacíamos a este artículo.

Google está centrando mucho esfuerzo en RankBrain, el algoritmo de inteligencia artificial basado en machine learning (es decir, los ordenadores aprenden y ejecutan de manera “autónoma”). Así, Google, el famoso algoritmo, cambia de nuevo los parámetros de ordenación de la relevancia de resultados. Es decir, cambia de nuevo el SEO, esa industria en la que muchos llevamos tantos años. Y en entrevistas recientes, algunas personas importantes de Google ya han señalado que este algoritmo está, junto con los enlaces y los contenidos, entre los parámetros más críticos.

Empecemos por lo más importante: el cambio es nuclear. Básicamente lo que buscaba Google es un sistema que entendiera mejor al usuario. Es decir, que interpretara mejor los resultados de búsqueda. La idea básica es que este algoritmo es capaz de relacionar conceptos aparentemente ambiguos. Ante una búsqueda de un usuario, trata de entender su intencionalidad, y aunque las palabras exactas no vengan en una web determinada, Google lo considera relacionado. Además, como algoritmo de “machine learning” que es, si su sistema de “sinónimos” acierta, aprende de ello, y por lo tanto, irá mejorando con el tiempo.

Esquema de trabajo de RankBrain (Fuente: http://www.wordstream.com/images/rankbrain-diagram.png)
Esquema de trabajo de RankBrain (Fuente: http://www.wordstream.com/images/rankbrain-diagram.png)

Google RankBrain entra de los algoritmos “deep learning”, que no dejan de ser otra cosa que los algoritmos de “back propagation technique” evolucionados (esto ya lo estudié en la carrera a mediados de los 2000). La idea es aprender a conectar el significado de las webs de manera autónoma, algo que hacía la empresa DeepMind que Google adquirió en Enero del 2014.

Todo esto afecta en muchas cuestiones a las estrategias digitales de posicionamiento que han seguido las marcas:

  • Las keywords: la “keyword research” era la base de la estrategia SEO sobre la que se construía el resto de piezas del tablero. Habían de alinearse la propuesta de valor de la empresa, con las palabras que la gente buscaba, y hacer luego la implementación de las keywords en todos los canales y soportes (web, Social Media, etc.). Esto ahora cambia con RankBrain: el algoritmo aprende de manera autónomo, por lo que la keyword research, presumiblemente, vivirá una nueva época dorada: tendrá que estar en permanente adaptación. ¿Ya tienes tu keyword research en “real-time” preparada para ser actualizada?
  • Elección del “algoritmo núcleo” que utilizar: dentro del algoritmo de Google, hay varios “subalgoritmos”, que son los que finalmente ordenan los resultados. A partir de ahora será RankBrain quien determine qué “subalgoritmo” utilizar. Cada búsqueda, provoca diferentes mezclas de algoritmos. A veces determinará que el título meta es el parámetro crítico, otras el pagerank. En función de cómo aproximarse a entender mejor la intencionalidad de la búsqueda. Por lo tanto, esto pudiera terminar con parte del discurso de toda la vida: “Todo es importante”.
  • La importancia del benchmark del sector: los algoritmos de deep learning, como antes explicábamos, funcionan mucho con la lógica de la comparación y conexión entre webs. Y dado que aprenden por sí solos, una vez identificada la mejor web del sector, será el benchmark que utilice para compararse con el resto. Así, parece que RankBrain, clasificará los sitios web por cada sector. Y esto, al menos, hará que la importancia de herramientas de inteligencia competitiva como Semrush, Woorank o Similarweb, sean fundamentales para la definición de la estrategia digital de una empresa. Esto requerirá replicar, al menos, la estructura y composición de las mejores web en cada nicho y sector.
  • Los backlinks, reyes y reinas: ya eran importantes, pero ahora lo serán más con la lógica que estamos describiendo. Pero es que ahora, deberán “verticalizarse” por sector. Dado que seguirá una lógica del “Best student in class“, si construimos una estrategia de backlinks con diferentes sectores, podremos confundir a Google. La estrategia se tematizará, y hará que esto se vuelva más técnico. Mezclar una marca de venta de ropa con una de piezas de automoción por el sencillo motivo de “tener tráfico”, podría penalizar mucho. Bienvenidos a la era de la tematización de contenidos 🙂

Como ven, la Inteligencia Artificial no solo es novedad por el paradigma del Big Data. El marketing digital, en el que tantos cambios vemos constantemente, sea quizás uno de los más afectados. Por ello, resulta tan importante entender estos cambios y cómo hacer frente a los mismos. RankBrain ha venido para quedarse, y junto a enlaces y contenidos, a condicionar nuestro posicionamiento web.

¿Qué son los bots y qué posibilidades nos traen?

Supongo que algunos de ustedes recordarán la serie de “El Coche Fantástico” (The Knight Rider en otras latitudes y longitudes). En esta serie, un jovencísimo David Hasselhoff, se comunicaba y daba órdenes a través del uso de un smartwatch (fíjense qué cosas) a un coche (Kitt), que actuaba en consecuencia.

Michael Knight llamando a Kitt a través de un smartwatch (Fuente: http://www.tuexperto.com/wp-content/uploads/2014/12/tecnologias_ciencia-ficcion_2014_07.jpg)
Michael Knight llamando a Kitt a través de un smartwatch (Fuente: http://www.tuexperto.com/wp-content/uploads/2014/12/tecnologias_ciencia-ficcion_2014_07.jpg)

Me pasé toda mi infancia soñando con poder interactuar con las máquinas de esta manera. Esto quizás fue así porque los que nacimos en los 80, nos críamos en una época en la que la interacción con los dispositivos no era lo que es hoy en día. Desde entonces, siempre me ha interesado mucho la evolución de la interacción con los ordenadores y dispositivos en general.

Esto vuelve a estar de moda hoy en día gracias a los bots. Viene a ser la versión software de un robot. Ya sabéis, esos programas que simulan tener conversaciones con nosotros, que interpretan nuestros deseos, y ejecutan acciones en consecuencia. En definitiva, poder comprar algo en una tienda online, reservar un billete de avión o pedir que venga un coche autónomo como Kitt a recogerte a un sitio concreto simplemente dando una orden.

Fíjense en la enorme diferencia a cómo diseñamos hoy en día las aplicaciones para que fácilmente se pueda hacer esto mismo introduciendo datos con nuestros pulgadores o dedos. El salto me parece importantísimo. Y están de moda, porque dado que las aplicaciones de mensajería se están imponiendo a las redes sociales, aplicaciones como Facebook Messenger, Kik, WeChat, Telegram, etc., están como locas intentando facilitar aún más el envío de mensajes y la interpretación de las órdenes (cuando lo son). Microsoft también lo está, y entiendo es cosa de días/meses que se generalice su uso dentro de Skype.

Los jóvenes quieren interactuar con texto, por lo que esto abre un campo de desarrollo de estas aplicaciones importantísimo, de tal manera que muchos negocios se podrían apalancar sobre estas aplicaciones para construir sus propuestas de valor. Este último punto me parece especialmente significativo, dado que cada vez usamos menos aplicaciones, y nos cuesta más descargar aplicaciones. Por lo que construir nuestra propuesta de valor sobre plataformas de terceros (entiendo que el valor bursátil de Facebook tiene mucha explicación aquí) parece una buena idea. Perdemos la capacidad de gestión y de los datos, pero ganamos en desarrollo de negocio. Costes y beneficios, como siempre.

Piensen en muchas de las funcionalidades que ejecutamos dentro de las aplicaciones que empleamos en nuestro día a día que son susceptibles de ser entendidas por un bot y obrar en consecuencia:

  • Hacer un pedido.
  • Solicitar una información.
  • Llamar o escribir a un amigo.
  • Actualizar una información en tiempo real
  • etc,

Es decir, tareas donde queremos que el bot trabaje de manera autónoma. Sin mayor esfuerzo por nuestra parte. Quizás muchos piensen que esto no es nada nuevo. Es probable. El asunto es que disponemos hoy en día de unas capacidades de cómputo que han hecho evolucionar al software, dando lugar a grandes avances en el mundo del machine learning, tecnologías de procesamiento de lenguaje natural y del deep learning (representaciones de los datos de tal manera que facilite el facilitar el aprendizaje automático, y por lo tanto, mejore la autonomía de los algoritmos y el aprendizaje de la voz, las órdenes, la interacción, etc.). Esto, ha provocado que los bots, nos parezcan más inteligentes que nunca. Especialmente, para tres situaciones, que creo es donde más desarrollo veremos:

  • Los bots trabajando de manera autónoma para ayudarnos de manera activa (estamos trabajando en un Google Doc de manera colaborativa, y tras detectar que no llegamos a un punto de entendimiento, nos sugiere a través de Google Calendar que nos reúnamos vía Google Hangouts para resolverlo).
  • Disponer de un asistente personal para darle órdenes (pedidos, informaciones, etc., lo que veíamos antes)
  • Interacciones más sofisticadas como conversaciones naturales en las que finalmente llega a entender y mejorar nuestra situación (por ejemplo, cuando estamos comprando, y nos sugiere productos o servicios alineados con nuestros intereses)

De esta manera, llegamos a un escenario en el que los bots de manera pasiva y activa trabajan para nosotros, ¿seguiremos buscando nosotros? Esto seguro que Google está pensándolo con tranquilidad. ¿Pudiera llegar Google a perder el monopolio de su valor añadido -la búsqueda y localización rápida de “TODA” la información?

Con todas estas posibilidades, como decíamos antes, hay varias aplicaciones de mensajería que han reaccionado rápido, y entiendo que bien. Kik, una aplicación de chat muy popular entre los jóvenes (no todavía en España, pero sí en EEUU), abrió hace no mucho una tienda de bots. A mí esto me recuerda a la época de los tamagotchis, el poder comprarte un bot con el que poder hablar, trabajar, interactuar, etc. Fascinante. Ahí están por ejemplo los bots de H&M y Sephora para comprar ropa, o la de The Weather Channel para consultar el tiempo. Lo interesante de todo esto es que llegaremos a un punto pronto en el cual será fácil crear nuestro propio bot. Kik, por ejemplo, ya lo permite usando sus herramientas de desarrollo.

Fuente: https://tctechcrunch2011.files.wordpress.com/2016/04/sephora.png?w=680&h=382
Aplicación de Sephora (Fuente: https://tctechcrunch2011.files.wordpress.com/2016/04/sephora.png?w=680&h=382)

No podemos terminar este artículo introductorio al mundo de los bots sin hablar de los modelos de negocio (pensemos en cómo Kik, por ejemplo, pudiera llegar a monetizar sus bots no solo a través de la venta de ellos, sino también con comisiones sobre ventas realizadas con el uso de su software o con modelos de suscripción o publicidad) y el campo de la responsabilidad legal y ética. Este último campo, como sabéis, a mí siempre me interesa y preocupa. El accountability de los algoritmos es algo de lo que ya he hablado. El funcionamiento autónomo de un software creado con unas intenciones, siempre he creído que debe tener cierto “control”. Ahí es donde la ética debe entrar.

Los bots, como ven, ya están aquí. En nuestras manos está  hacer un uso ético de esta potente tecnología.

 

Sobre los drones, regulaciones y el “accountability” de los algoritmos

Uno de los temas que más interés está suscitando en el mundo “tech” son los drones. Son muchas las noticias sobre sus utilidades, el futuro, etc. Pero hoy la noticia es otra:

Un avión esquiva tres drones durante el aterrizaje en Loiu (Fuente: http://www.eitb.eus/es/noticias/sociedad/detalle/4092638/un-avion-esquiva-tres-drones-aterrizaje-loiu/)
Un avión esquiva tres drones durante el aterrizaje en Loiu (Fuente: http://www.eitb.eus/es/noticias/sociedad/detalle/4092638/un-avion-esquiva-tres-drones-aterrizaje-loiu/)

Hasta la fecha, es el incidente más grave registrado en un aeropuerto en España. Y ha tenido que ser en Bilbao. Esto en Reino Unido y Francia ya había ocurrido. En España, estamos hablando de una infracción que para los que estaban manejando los drones puede traer hasta 250.000 €, dado que tienen prohibido volar a esa altura (el avión estaba a 900 metros, sobre Larrabetzu y Lezama) -estando el límite en 120 metros-. Es más, tienen prohibido volar dentro del espacios aéreos controlados y en distancias de 15 kilómetros a la redonda de los aeropuertos. Se saltaron toda normativa, en definitiva.

Más allá de la noticia, conviene hacer una reflexión sobre lo que drones pueden aportar a nuestras sociedades. Empecemos por definir lo que son. Se trata de vehículos aéreos no tripulados, y que pueden ser controlados de manera remota, o bien de manera autónoma, como otro algoritmo de caja negra más (aquí ya los posibles (mal)usos puede el lector comenzar a imaginar). Esto último parece la tendencia. Un dispositivo que existe desde el Siglo XIX, pero que se ha popularizado gracias al progreso tecnológico que ha abarato su fabricación, y por lo tanto, “democratizado” su consumo.

Drones en Google Images (Fuente: Google Images)
Drones en Google Images (Fuente: Google Images)

Casualidades, hoy ha sido noticia por una de esas aplicaciones que a mí personalmente más miedo me dan. Un dron, responsable de haber acabado con el líder de Al Qaeda en Afganistán. Es cierto que el campo militar siempre ha traído innovaciones al civil, pero estamos hablando de un peligro de unas posibles consecuencias realmente grandes. ¿Se imaginan en manos del Daesh estos artefactos? ¿Se imaginan que dispusieran de habilidos programadores de drones para perpretar verdaderas matanzas?

Todo ello, me hace pensar que debiéramos discutir más sobre el accountability de los algoritmos (de esto ya hablé aquí), y máxime cuando tiene implicaciones humanas de tal calado. Mientras seguimos debatiendo sobre ello, creo que, cuando menos, debiéramos tener una regulación importante.

Las pasadas Navidades, uno de los regalos más realizados en EEUU fueron los drones. Las ventas fueron de unas 400.000 unidades, un 20% de todos los vendidos en el mundo. A los americanos parece que les gusta el invento, especialmente los que se pueden pilotar desde el teléfono móvil y permite ver en tiempo real las grabaciones o fotografías que va haciendo. Sin embargo, el presidente Obama sabe que esto entraña peligros, claro. Para ello, el gobierno de Barack Obama sacó dos regulaciones:

  • Un reglamento para garantizar un uso seguro de los drones para el ocio (quizás la utilidad que estaban sacando los que lo estaban manejando hoy en Bilbao)
  • Obligación de inscribir el dron en un registro público siempre y cuando tenga un peso entre 250 gramos y 25 KGs. Esto permitiría trazar y poder atribuir responsabilidades en caso de cualquier problema. Algo parecido a lo que hacemos en tráfico cuando adquirimos un vehículo.

Lo que persiguen estas regulaciones no es otra cosa que poner cierto control a algo que se puede ir fuera de control. En la actualidad, no se requiere permiso alguno para operarlo a menos de 121 metros de altura, siempre y cuando se mantenga contacto visual con el aparato, y no se sobrevuele cerca de eventos deportivos, aeropuertos o concentraciones. Lo que decíamos al comienzo se han saltado en el caso de Loiu de hoy.

¿Y esto qué interés pudiera tener para este mundo digital de las empresas? Amazon, por ejemplo, caso del que ya hablé, no para de invertir en estas tecnologías. Una flota de vehículos autónomos repartiendo sus paquetes. Amazon tiene ya un prototipo híbrido entre un avión y un helicóptero con el que quiere llegar a volar distancias largas a un coste muy bajo. Esta es la propuesta de valor que más llama la atención a Amazon. En San Francisco o San Antonio, Amazon ya ofrece reparto en menos de dos horas de manera gratuita. Si quiere llegar a generalizar eso, tiene que buscar por todo slos medios la forma de reducir costes.

Los de Amazon, descienden y vuelven a ascender con gran seguridad y agilidad, cogiendo lo mejor y quitando lo peor de aviones y helicópteros. De esta manera, Amazon espera entregar paquetes de menos de 3 KGs en menos de 30 minutos, volando a unos 120 metros. El problema con todo esto es la seguridad. ¿Puedan volar sin mayor control que ese?  Amazon lo está probando a la vez en EEUU, Reino Unido e Israel. Pero, en los cielos de esos países, a 120 metros o menos, ¿no podría llegar a haber congestiones o accidentes? ¿Mal usos?

Esto, de cualquier manera, también puede tener otros beneficios. Correos, por ejemplo, ya ha comenzado a realizar pruebas de entregar en zonas de difícil acceso (que en el país -España- con tanta fragmentación ciudad-campo, será de gran ayuda). Y, de esta manera, vertebrar algo más España, en pueblos que no tienen acceso a establecimientos ni a experiencias de compra como sí tenemos en las ciudades. Esto no solo aplicaría para la entrega, sino también para la devolución e incidencias. Esto en EEUU, llevan mucho probándolo, siendo el comercio electrónico el principal beneficiado, que ha visto como ahora puede llegar a poblaciones alejadas (también es cierto que allí hay mucha cultura por la venta por catálogo).

Todo esto está bien para el comercio, pero creo que a nivel social, el día que consigamos hacerlo a un precio económico y sostenible, tendrá un impacto aún mayor. Pensemos, por ejemplo, en el envío de medicamentos y vacunas a lugares remotos de África, Asia y América Latina. O la asistencia en zonas de emergencia. Increíbles resultados los que podríamos obtener.

En definitiva, vemos que una tecnología tan potente como son los drones, como suele pasarnos, tiene costes y beneficios. En nuestras manos está que hagamos un buen uso de los mismos, y saquemos lo mejor de sí mismos. Para ello, la regulación y el accountability de los que se manejan de manera autónoma, me parece crítico. Veremos.

El “modelo de publicidad de Google”, la atención y algoritmos

Instagram, está de cambio. Al parecer, está trabajando en un algoritmo de personalización que permitirá que veamos resultados que más “nos interesan”. Un movimiento que sucede a los que ya hicieron en su día Facebook o Twitter -ahí nació el hashtag #RIPTwitter-, con sus algoritmos de personalización de resultados a los deseos y gustos del “consumidor” (nosotros, los usuarios). Es decir, huyendo de la ordenación cronológica, lo que buscan es que veamos aquello que entienden más nos gusta.

Un modelo de ordenación que, entiendo, podemos decir se inspira en Google. Cuando nació el buscador, intentó entender bien lo que la gente quería buscar. Y con ello, dado su éxito en el uso, comenzaron a evolucionar el espacio de resultados hasta convertirlo en un bien escaso. Nacen a la par dos “industrias”:

  • SEO: el concepto “optimizar” describe la idea de saber qué parámetros considera Google importantes para una búsqueda determinada.
  • SEM: resumiendo mucho lo resumible, pagarle a Google para que te ponga preferentemente en los resultados que devuelve el propio buscador.

Que otras plataformas sociales estén convergiendo a este “modelo de publicidad de Google“, a mí, querido lector, me preocupa. Como suelo decir, las redes sociales no se usan, sino que se construyen. Si algo no me gusta, dejo de seguirlo y ya está. Si yo usase un producto “marca blanca” con estas redes sociales, entendería estas personalizaciones. Pero, no es así. En redes sociales, donde además de agrupar a usuarios, puedo tomar decisiones sobre lo que me gusta y no me gusta (sigo o no sigo), ¿por qué va un algoritmo a hacerlo por mí?

La respuesta, me parece es bastante clara: dinero y modelos de negocio. Como ya he comentado con anterioridad, estas “redes sociales comerciales” que usamos son canales de TV. Es decir, necesitan generar datos de audiencia para que luego puedan vender mejores espacios de impacto a los anunciantes. Para ello, que un usuario vea lo “más relevante“, resulta crítico. Y por ello, son movimientos tendentes a generar “escasez“. Es decir, aparecer ahí como algo “relevante”, pudiera llegar a ser algo escaso, por lo que ya la gente estaría dispuesto a pagar. Por esto mismo, el SEO y el SEM de Google, llevan años literalmente montados en el dólar.

La lógica parece sencilla e incluso poco “debatible”: con más de 400 millones de usuarios, y a sabiendas que el 70% de las entradas no son vistas por sus usuarios, Instagram busca introducir “relevancia” y “escasez”: cuanto más tiempo quieran estar en su red los usuarios (porque ahora tendrán un incentivo mayor para estar), más valor tendrá ese espacio para los anunciantes.

Pero esta es la guerra de la atención. En un mundo en el que cada hay más dispositivos electrónicos para el consumo de medios y contenidos digitales, cada vez más oferta de contenidos y plataformas, la cuestión es “estar ahí“, y llamar la atención del que busca. La escasez es la atención, y de ahí que el clickbait sea una industria en sí misma (técnicas para llamar la atención con un titular sensacionalista, que busca generar tráfico con clicks):

Fuente: http://www.thedailybeast.com/articles/2014/07/14/saving-us-from-ourselves-the-anti-clickbait-movement.html
Fuente: http://www.thedailybeast.com/articles/2014/07/14/saving-us-from-ourselves-the-anti-clickbait-movement.html

Estas “redes sociales comerciales” buscan todo tipo de técnicas para atraer más a los usuarios y buscar un mayor consumo de tiempo y contenidos. Eso, engrasará bien con su Cuenta de Resultados, y claro, su valor de mercado. Y es que esto no va de usuarios, ni únicos, ni nada parecido: va de tiempo empleado, tasas de retorno y “engagement” del usuario. Cuando hablas con una empresa, con un medio de comunicación, con un bloggero, suelen exponer su éxito con “usuarios” o “páginas vistas”. Pero eso dista mucho de ser una métrica buena y precisa. Pero tenemos algunas mejores, que ahora mismo no estamos empleando.

La atención y algoritmos, así, cobran un papel tan relevante, que serán estos últimos los que determinen para nosotros cuestione tan fundamentales y humanas como “qué nos interesa”. Ya he hablado del libro “The Black Box Society” con anterioridad. Y alerta precisamente de esto mismo. Como todavía no lo he terminado, hablaré de él próximamente.

Por todo esto, y resumiendo la idea principal, creo que la industria de la publicidad digital, como ya hablaba recientemente, va a cambiar. Creo que pasaremos a un modelo como el de la TV:

  • Un segmento de “publicidad premium”, que querrán pagar por esa atención y contenidos de calidad. Como la TV de cable. Un mercado publicitario no invasivo, adaptado al usuario y donde los adblockers no serán preocupación del usuario.
  • Un segmento de “publicidad low cost”, que querrán seguir pagando, como hasta la fecha, por clicks y tráfico, como medida más sencilla del concepto de “interés por comprar o consultar algo“. Un “modelo de publicidad Google“, donde los adblockers serán la norma.

Como ven, y volviendo a insistir en ideas previas, la era digital no ha hecho más que comenzar. Todavía seguimos analizando su evolución y especulando sobre su futuro. Esto no va de cantidad, va de calidad. Y para que mi espacio de impacto publicitario tenga un valor por el que la gente (anunciantes básicamente) quieran pagar, necesito generar esa sensación de escasez. Es algo que los periódicos todavía no terminan de dar con la tecla para ver cómo sacarle monetización, pero que, creo y espero, pronto lo hagan. La atención y algoritmos, nos lo dirán.

Por cierto, ¿podrá Google llegar a tener problemas algún día? 🙂