Facebook ficha a los principales equipos de fútbol: ¿para qué?

Hace unas semanas, cuando hablé de Facebook y de los cambios en su muro de notificaciones, ya comenté que Facebook estaba incentivando y promoviendo mucho el uso por parte de los que formamos parte de la ex-red social de Facebook Live videos e Instant Articles. Lo que busca no es otra cosa que generemos más y más contenido. Y encima, el vídeo le interesa mucho, seguramente por ser el formato de su principal base de usuarios, esos que se informan a diario en el actual medio de comunicación que es Facebook.

Esta es la principal diferencia que tiene Facebook o Google, como empresas de Internet, frento a otras como Yahoo: nosotros les regalamos los contenidos. Nosotros somos los generadores de su materia prima, por lo que sus márgenes operativos son realmente espectaculares. Y su crecimiento y escalabilidad, mucha más sencilla que la del resto. Cuando luego quieran competir, partirán siempre con desventaja.

Me acordaba de esto esta mañana mientras leía Wall Street Journal y he topado con este artículo. Básicamente, que Facebook ha fichado a varios equipos de fútbol y sus correspondientes estrellas para que usen Facebook Live, la herramienta para creación de vídeos que dispone. Esto no es nada nuevo; ya el mes pasado anunció que había fichado hasta 140 celebrities para hacer exactamente lo mismo.

Las cantidades que va a pagar son “pequeñas”, en escala Facebook, pero pueden expresar una intencionalidad clara:

facebook liveo
Fuente: http://www.wsj.com/articles/facebook-enlists-soccer-elite-to-help-live-video-1469727818

El Barcelona, se convierte así, el 18º mejor pagado de la plataforma. La entidad que más cobra por el uso incentivado de Facebook Live es BuzzFeed, con un contrato de 3,05 millones, seguido de New York Times con 3,03 y CNN con 2,51 millones de vídeos. No se extrañen si empiezan a ver su Facebook rodeado de estos vídeos. Fijense en estos dos ejemplos de su mejor pagado, el FC Barcelona:

En esta era digital, las audiencias traspasan las fronteras. Fijense que para un club, su principal métrica de éxito ya no solo radica en las personas que acuden a ver el entrenamiento, por mucho que los telediarios se empeñen en ello. Estamos hablando de una audiencia global y mundial de 500.000 personas viendo la presentación de su última estrella. El negocio del fútbol, como también dijimos, traspasa fronteras y hará que aumenten más y más los ingresos de los clubes de fútbol.

Cuando hablaba de la compra de Yahoo por parte de Verizon, ya señalé que sus contenidos deportivos eran uno de los mayores intereses. Es un contenido muy consumido por la audiencia móvil, por lo que también, muy jugoso para toda la industria millonaria de publicidad móvil digital. Por ello, ahí están entrando todos. Twitter, ya ha firmado contratos con la NBA, la NFL y la NHL. El objetivo no es otro que los contenidos generados durante la retransmisión de los partidos de dichas ligas. Snapchat ha hecho lo propio con otro operador.

En todo ello se observa una tendencia clara de transformación de red social a empresa de contenidos. Un medio de comunicación de este siglo XXI. Y vemos, algo que he señalado en multitud de ocasiones: estas plataformas sociales aparentemente gratuitas, se nutren de ello, de que las entendamos como un lugar donde informarnos y entretenernos.

 Y, como telón de fondo, está el debate sobre los medios de comunicación en este Siglo XXI. Cuál será su futuro, y a qué se pueden agarrar para seguir en esta disputa. Hasta un humilde blogero como yo, les quita (algo) de tráfico (poco). Tienen competidores por todos los lados, y además, con un músculo financiero importante (léase Facebook o Google). ¿A qué se podrán agarrar para seguir siendo competitivos? Ojalá tuviera respuesta. A los que hemos comprado el periódico en papel toda la vida, nos produce cierta pena. Esperamos poder encontrar el camino por ahí entre todos, quizás hibridando los conceptos de red social y medio de comunicación. Siguiendo, en definitiva, a estos grandes imperios de la comunicación como Facebook o Twitter.

La Inteligencia Artificial y el SEO: Google RankBrain

La Inteligencia Artificial es noticia por muchas cuestiones. El 2015, pasará a la historia como un año en el que este campo, que lleva con nosotros desde los 60, ha dado saltos cuánticos. Es conversación de muchos no solo por las posibilidades que abre, sino también por la supuesta amenaza que provoca a la existencia humana. El problema de todo esto es que, como con muchas otras capacidades tecnológicas que hemos ido los humanos desarrollando, su vector de crecimiento es comercial. Stephen Hawking ya alertó de ello en 2014, cuando dijo aquello de:

Potentially our worst mistake in history.

Desde entonces, el panorama no ha cambiado mucho. The Economist dedica en uno de sus últimos números a hablar de todo ello. En este artículo, habla de cómo este debate ya lo vivieron en la revolución industrial. ¿La diferencia? Que ahora automatizamos cerebros, no músculos. Y ahí puede radicar parte de la diferencia. Hasta la fecha, hemos dicho nosotros a los ordenadores lo que tenían que hacer. Aquí, como ya he señalado en alguna otra ocasión, creo que no nos quedará otra que tener intervención pública.

Mientras estas reflexiones quedan en el ambiente, vemos como las grandes tecnológicas, siguen pivotando su estrategia de futuro alrededor de los datos, la conectividad y la Inteligencia Artificial. IBM, se autodeclara el líder de la computación cognitiva. Facebook lo mismo. Y Google, se rebautiza como “Machine Learning first” company. De esta última, quería hablar, a colación de la entredilla que hacíamos a este artículo.

Google está centrando mucho esfuerzo en RankBrain, el algoritmo de inteligencia artificial basado en machine learning (es decir, los ordenadores aprenden y ejecutan de manera “autónoma”). Así, Google, el famoso algoritmo, cambia de nuevo los parámetros de ordenación de la relevancia de resultados. Es decir, cambia de nuevo el SEO, esa industria en la que muchos llevamos tantos años. Y en entrevistas recientes, algunas personas importantes de Google ya han señalado que este algoritmo está, junto con los enlaces y los contenidos, entre los parámetros más críticos.

Empecemos por lo más importante: el cambio es nuclear. Básicamente lo que buscaba Google es un sistema que entendiera mejor al usuario. Es decir, que interpretara mejor los resultados de búsqueda. La idea básica es que este algoritmo es capaz de relacionar conceptos aparentemente ambiguos. Ante una búsqueda de un usuario, trata de entender su intencionalidad, y aunque las palabras exactas no vengan en una web determinada, Google lo considera relacionado. Además, como algoritmo de “machine learning” que es, si su sistema de “sinónimos” acierta, aprende de ello, y por lo tanto, irá mejorando con el tiempo.

Esquema de trabajo de RankBrain (Fuente: http://www.wordstream.com/images/rankbrain-diagram.png)
Esquema de trabajo de RankBrain (Fuente: http://www.wordstream.com/images/rankbrain-diagram.png)

Google RankBrain entra de los algoritmos “deep learning”, que no dejan de ser otra cosa que los algoritmos de “back propagation technique” evolucionados (esto ya lo estudié en la carrera a mediados de los 2000). La idea es aprender a conectar el significado de las webs de manera autónoma, algo que hacía la empresa DeepMind que Google adquirió en Enero del 2014.

Todo esto afecta en muchas cuestiones a las estrategias digitales de posicionamiento que han seguido las marcas:

  • Las keywords: la “keyword research” era la base de la estrategia SEO sobre la que se construía el resto de piezas del tablero. Habían de alinearse la propuesta de valor de la empresa, con las palabras que la gente buscaba, y hacer luego la implementación de las keywords en todos los canales y soportes (web, Social Media, etc.). Esto ahora cambia con RankBrain: el algoritmo aprende de manera autónomo, por lo que la keyword research, presumiblemente, vivirá una nueva época dorada: tendrá que estar en permanente adaptación. ¿Ya tienes tu keyword research en “real-time” preparada para ser actualizada?
  • Elección del “algoritmo núcleo” que utilizar: dentro del algoritmo de Google, hay varios “subalgoritmos”, que son los que finalmente ordenan los resultados. A partir de ahora será RankBrain quien determine qué “subalgoritmo” utilizar. Cada búsqueda, provoca diferentes mezclas de algoritmos. A veces determinará que el título meta es el parámetro crítico, otras el pagerank. En función de cómo aproximarse a entender mejor la intencionalidad de la búsqueda. Por lo tanto, esto pudiera terminar con parte del discurso de toda la vida: “Todo es importante”.
  • La importancia del benchmark del sector: los algoritmos de deep learning, como antes explicábamos, funcionan mucho con la lógica de la comparación y conexión entre webs. Y dado que aprenden por sí solos, una vez identificada la mejor web del sector, será el benchmark que utilice para compararse con el resto. Así, parece que RankBrain, clasificará los sitios web por cada sector. Y esto, al menos, hará que la importancia de herramientas de inteligencia competitiva como Semrush, Woorank o Similarweb, sean fundamentales para la definición de la estrategia digital de una empresa. Esto requerirá replicar, al menos, la estructura y composición de las mejores web en cada nicho y sector.
  • Los backlinks, reyes y reinas: ya eran importantes, pero ahora lo serán más con la lógica que estamos describiendo. Pero es que ahora, deberán “verticalizarse” por sector. Dado que seguirá una lógica del “Best student in class“, si construimos una estrategia de backlinks con diferentes sectores, podremos confundir a Google. La estrategia se tematizará, y hará que esto se vuelva más técnico. Mezclar una marca de venta de ropa con una de piezas de automoción por el sencillo motivo de “tener tráfico”, podría penalizar mucho. Bienvenidos a la era de la tematización de contenidos 🙂

Como ven, la Inteligencia Artificial no solo es novedad por el paradigma del Big Data. El marketing digital, en el que tantos cambios vemos constantemente, sea quizás uno de los más afectados. Por ello, resulta tan importante entender estos cambios y cómo hacer frente a los mismos. RankBrain ha venido para quedarse, y junto a enlaces y contenidos, a condicionar nuestro posicionamiento web.

Microsoft ha comprado LinkedIn: ¿por qué y para qué?

Supongo que a estas alturas ya sabrán ustedes que Microsoft ha comprado Linkedin. Un precio de compra total, es decir, un valor de Linkedin total de 26.200 millones de dólares. Es la más grande en la historia de Microsoft. Una empresa, esta, que desde que llegó Nadella a su jefatura, parece va recuperando rumbo y orientando bastante mejor su propuesta de valor.

Si cogemos en perspectiva Microsoft, nos daremos cuenta de muchas cosas. Allá por el año 2000, cuando Steve Ballmer coge las riendas de la compañía, Microsoft valía 600.000 millones de dólares. Es el pico que veis allá por el año 2000. Por medio, están unos años de destrucción de valor, no tanto por hacer cosas mal en su core de negocio (software de Sistema Operativo y oficina y productividad), sino por haberse perdido los grandes paradigmas tecnológicos que aparecieron (Cloud Computing, movilidad, smart phones, Social Media, etc.). En la actualidad, con Nadella al frente, Microsoft se está renovando a marchas forzadas, dejando su modelo de venta de licencias, por mundos más prometedores como el Cloud Computing o las grandes redes profesionales. Ahí, parece que cobra sentido la adquisición de Linkedin.

Evolución de Microsoft en bolsa (Fuente: Yahoo Finances)
Evolución de Microsoft en bolsa (Fuente: Yahoo Finances)

Ante este escenario, una pregunta que se están haciendo muchos es sobre el “por qué” y el “para qué”. A nivel de propuestas de valor, el alineamiento es muy claro y efectivo. Ambas compañías, por separado, se dedican a ofrecer servicios profesionales, por lo que se presume una integración de cultura corporativa y relación con clientes y usuarios bajo una misma forma de pensar. Esperemos no acabe entre esa horquilla de 70 y 90% de adquisiciones que fracasan.

He hablado de Linkedin en varias ocasiones (aquí, aquí y especialmente, aquí). Su crecimiento orgánico de estos años se ha fundamentado en ir añadiendo herramientas y funcionalidades a la red social profesional que entendía a nosotros, los usuarios, no iba a aportar valor. Herramientas como Pulse para noticias, Lynda para formación o Slideshare para presentaciones, son de enorme valor para un perfil como el mío, y entiendo, que para varios de vosotros. Así, Linkedin, se ha convertido en una red en la que tenemos incentivos de entrar varias veces a lo largo del día, relacionarnos, comunicar, etc., que es cuando una red social, como infraestructura, captura y genera valor.

En este escenario, es cuando la adquisición cobra sentido. Dado que Microsoft cuenta con una cada vez mayor cartera de soluciones de negocio, tiene sentido seguir apostando por ello como un “all-in-one” de soluciones de negocio para cualquier compañía. Un sector donde competirá cara a cara con Salesforce. Un ecosistema de herramientas de trabajo que a más de uno le va a permitir adquirir de una todo lo que buscaba. Es más, la empresa solucionaría así otro de los problemas habituales, como es el de las identidades digitales de sus empleados. Por cuestiones de reputación y de desarrollo de carrera, cada vez es más importante el cuidar tu perfil profesional y exponerlo con ciertas garantías, por lo que si una empresa se apalanca en esta red profesional para confiar en sus trabajadores como identidades digitales corporativas, podría así, por transitividad, también usar bajo dichas identidades el resto de soluciones de negocio que hemos descrito anteriormente.

Un movimiento en el que parece Microsoft lanzar un mensaje claro: la era del software del PC parece estar quedando atrás. La multiplataforma actual, y el ecosistema en red parecen la nueva realidad, y así parece estar apostando. Y, sobre todo, parece lanzar un mensaje que los datos van a permitir construir muchas propuestas de valor. A sabiendas que las empresas se dejan presupuestos importantes en la búsqueda y selección de talento en Linkedin. De hecho, Microsoft es uno de los principales clientes de Linkedin ahora mismo. ¿Cuánto valor podrán generar a futuro en otros sectores los datos de Linkedin que tanto cuidamos por nuestra reputación profesional? Pues a tenor del valor pagado, se entiende que bastante, en cosas como:

  • En primer lugar, y el más obvio, ofrecer servicios avanzados de detección de talento. Actualmente, a Linkedin, esto le aporta un 62% de su facturación total. Se lleva tiempo rumoreando que Linkedin andaba detrás de servicios incluso de validación de credenciales, de tal manera que se rompa esa asimetría de información que en muchas ocasiones se produce cuando se ficha nueva talento. Es también, en este sentido, la empresa más rentable de las tecnológicas, con un margen bruto del 86%, dado que ha sabido mantener sus costes estables, a pesar del importante crecimiento de los ingresos.
Fuentes de ingreso de Linkedin (Fuente: https://media.licdn.com/mpr/mpr/shrinknp_800_800/AAEAAQAAAAAAAARrAAAAJDhiMTkwZWVjLTdkOGUtNDhjNC04ZmU1LWE1OTllOGUyOTljYQ.png)
Fuentes de ingreso de Linkedin (Fuente: https://media.licdn.com/mpr/mpr/shrinknp_800_800/AAEAAQAAAAAAAARrAAAAJDhiMTkwZWVjLTdkOGUtNDhjNC04ZmU1LWE1OTllOGUyOTljYQ.png)
  • Dada la gran cantidad de datos personales que tiene Linkedin de todos nosotros, ofrecer servicios de personalización de mensajes de marketing, no le costaría mucho. Y, con ello, ofrecer a Microsoft la posibilidad de convertirse en un eventual importante player de la publicidad “customer centric” de la que ya hablé.
  • Ofrecer servicios avanzados de itinerarios profesionales y formativos a los ya 433 millones de miembros de Linkedin. Un servicio de predicción de “éxito profesional”, en el que a los profesionales nos pueda decir dónde y qué estudiar, dónde y por qué trabajar en una determinada empresa, y por qué hacerlo ahí para nuestro desempeño futuro. En este sentido incluso podría crear productos y servicios (con su modelo de negocio asociado, claro) alrededor de los datos, como:
    • Ranking de mejores candidatos
    • Mejores cursos para llevarte a tu deseo profesional
    • Las mejores conexiones personales a establecer para el networking profesional
    • Personas, grupos, trabajos, etc. que te pudieran interesar para mejorar tu futuro
    • Scores o calificaciones de conceptos como “empleabilidad”, “liderazgo” o “salario” para ayudar a una empresa a seleccionar el mejor candidato para la competencia que más demande (esto en un “mercado de trabajo” donde todavía no se ha implantado fuertemante el modelo de competencias)
    • etc.
  • Servicios de pago para los que tenemos la fortuna de trabajar… y no solo para los que quieren una mejora profesional o encontrar empleo. Es decir, hacer que también un incentivo a entrar a Linkedin e interactuar aquellos que están muy contentos en su puesto de trabajo, no quieren cambiar, pero siempre puede venirles bien algo de formación o de relación con agentes.
  • Orientar a organizaciones hacia los “data-driven organizations“. Linkedin siempre ha sido una gran cantera de científicos de datos (DJ Patil, Monica Rogati o Jonathan Goldman), por lo que su cultura hacia la explotación del dato, esperamos beneficie a Microsoft, y ayude a seguir impregnando esa cultura por el dato que desde #bigdatadeusto tantas veces contamos y fomentamos.

Como hemos visto, una compra, esta de Microsoft, con un claro componente de datos. Y es que su valor, ahora mismo, es tan abstracto como “la capacidad de generar flujos de ingreso a partir de los datos que tiene Linkedin“.

¿Qué son los bots y qué posibilidades nos traen?

Supongo que algunos de ustedes recordarán la serie de “El Coche Fantástico” (The Knight Rider en otras latitudes y longitudes). En esta serie, un jovencísimo David Hasselhoff, se comunicaba y daba órdenes a través del uso de un smartwatch (fíjense qué cosas) a un coche (Kitt), que actuaba en consecuencia.

Michael Knight llamando a Kitt a través de un smartwatch (Fuente: http://www.tuexperto.com/wp-content/uploads/2014/12/tecnologias_ciencia-ficcion_2014_07.jpg)
Michael Knight llamando a Kitt a través de un smartwatch (Fuente: http://www.tuexperto.com/wp-content/uploads/2014/12/tecnologias_ciencia-ficcion_2014_07.jpg)

Me pasé toda mi infancia soñando con poder interactuar con las máquinas de esta manera. Esto quizás fue así porque los que nacimos en los 80, nos críamos en una época en la que la interacción con los dispositivos no era lo que es hoy en día. Desde entonces, siempre me ha interesado mucho la evolución de la interacción con los ordenadores y dispositivos en general.

Esto vuelve a estar de moda hoy en día gracias a los bots. Viene a ser la versión software de un robot. Ya sabéis, esos programas que simulan tener conversaciones con nosotros, que interpretan nuestros deseos, y ejecutan acciones en consecuencia. En definitiva, poder comprar algo en una tienda online, reservar un billete de avión o pedir que venga un coche autónomo como Kitt a recogerte a un sitio concreto simplemente dando una orden.

Fíjense en la enorme diferencia a cómo diseñamos hoy en día las aplicaciones para que fácilmente se pueda hacer esto mismo introduciendo datos con nuestros pulgadores o dedos. El salto me parece importantísimo. Y están de moda, porque dado que las aplicaciones de mensajería se están imponiendo a las redes sociales, aplicaciones como Facebook Messenger, Kik, WeChat, Telegram, etc., están como locas intentando facilitar aún más el envío de mensajes y la interpretación de las órdenes (cuando lo son). Microsoft también lo está, y entiendo es cosa de días/meses que se generalice su uso dentro de Skype.

Los jóvenes quieren interactuar con texto, por lo que esto abre un campo de desarrollo de estas aplicaciones importantísimo, de tal manera que muchos negocios se podrían apalancar sobre estas aplicaciones para construir sus propuestas de valor. Este último punto me parece especialmente significativo, dado que cada vez usamos menos aplicaciones, y nos cuesta más descargar aplicaciones. Por lo que construir nuestra propuesta de valor sobre plataformas de terceros (entiendo que el valor bursátil de Facebook tiene mucha explicación aquí) parece una buena idea. Perdemos la capacidad de gestión y de los datos, pero ganamos en desarrollo de negocio. Costes y beneficios, como siempre.

Piensen en muchas de las funcionalidades que ejecutamos dentro de las aplicaciones que empleamos en nuestro día a día que son susceptibles de ser entendidas por un bot y obrar en consecuencia:

  • Hacer un pedido.
  • Solicitar una información.
  • Llamar o escribir a un amigo.
  • Actualizar una información en tiempo real
  • etc,

Es decir, tareas donde queremos que el bot trabaje de manera autónoma. Sin mayor esfuerzo por nuestra parte. Quizás muchos piensen que esto no es nada nuevo. Es probable. El asunto es que disponemos hoy en día de unas capacidades de cómputo que han hecho evolucionar al software, dando lugar a grandes avances en el mundo del machine learning, tecnologías de procesamiento de lenguaje natural y del deep learning (representaciones de los datos de tal manera que facilite el facilitar el aprendizaje automático, y por lo tanto, mejore la autonomía de los algoritmos y el aprendizaje de la voz, las órdenes, la interacción, etc.). Esto, ha provocado que los bots, nos parezcan más inteligentes que nunca. Especialmente, para tres situaciones, que creo es donde más desarrollo veremos:

  • Los bots trabajando de manera autónoma para ayudarnos de manera activa (estamos trabajando en un Google Doc de manera colaborativa, y tras detectar que no llegamos a un punto de entendimiento, nos sugiere a través de Google Calendar que nos reúnamos vía Google Hangouts para resolverlo).
  • Disponer de un asistente personal para darle órdenes (pedidos, informaciones, etc., lo que veíamos antes)
  • Interacciones más sofisticadas como conversaciones naturales en las que finalmente llega a entender y mejorar nuestra situación (por ejemplo, cuando estamos comprando, y nos sugiere productos o servicios alineados con nuestros intereses)

De esta manera, llegamos a un escenario en el que los bots de manera pasiva y activa trabajan para nosotros, ¿seguiremos buscando nosotros? Esto seguro que Google está pensándolo con tranquilidad. ¿Pudiera llegar Google a perder el monopolio de su valor añadido -la búsqueda y localización rápida de “TODA” la información?

Con todas estas posibilidades, como decíamos antes, hay varias aplicaciones de mensajería que han reaccionado rápido, y entiendo que bien. Kik, una aplicación de chat muy popular entre los jóvenes (no todavía en España, pero sí en EEUU), abrió hace no mucho una tienda de bots. A mí esto me recuerda a la época de los tamagotchis, el poder comprarte un bot con el que poder hablar, trabajar, interactuar, etc. Fascinante. Ahí están por ejemplo los bots de H&M y Sephora para comprar ropa, o la de The Weather Channel para consultar el tiempo. Lo interesante de todo esto es que llegaremos a un punto pronto en el cual será fácil crear nuestro propio bot. Kik, por ejemplo, ya lo permite usando sus herramientas de desarrollo.

Fuente: https://tctechcrunch2011.files.wordpress.com/2016/04/sephora.png?w=680&h=382
Aplicación de Sephora (Fuente: https://tctechcrunch2011.files.wordpress.com/2016/04/sephora.png?w=680&h=382)

No podemos terminar este artículo introductorio al mundo de los bots sin hablar de los modelos de negocio (pensemos en cómo Kik, por ejemplo, pudiera llegar a monetizar sus bots no solo a través de la venta de ellos, sino también con comisiones sobre ventas realizadas con el uso de su software o con modelos de suscripción o publicidad) y el campo de la responsabilidad legal y ética. Este último campo, como sabéis, a mí siempre me interesa y preocupa. El accountability de los algoritmos es algo de lo que ya he hablado. El funcionamiento autónomo de un software creado con unas intenciones, siempre he creído que debe tener cierto “control”. Ahí es donde la ética debe entrar.

Los bots, como ven, ya están aquí. En nuestras manos está  hacer un uso ético de esta potente tecnología.

 

El retargeting: de curiosos en la web, a clientes fidelizados (II)

(continuación del artículo anterior)

El objetivo principal del flujograma anterior era identificar las audiencias y el canal donde mejor dirigirnos a ese colectivo. Como vemos, los criterios para elegir y calificar (scoring, del que ahora hablaremos) a los candidatos (menos aquellos que deciden deliberadamente salir -opt outs-), son las personas y las ofertas que mejor se ajustan. Para ello, resulta fundamental trabajar con dos elementos:

  • Cookies: información que envía un sitio web (app, web, etc.) que es almacenada en el navegador del usuario, de forma que así el sitio web puede consultar la actividad previa del usuario. Esto hace que podamos saber el histórico de relación con mi web de un usuario dado.
  • Comportamiento del visitante: el comportamiento web es una de las grandes áreas donde el Big Data está trabajando. El denominado Clickstream Analysis, monitoriza los patrones de navegación con objeto de entender sus preferencias y segmentar las mismas. Y, así podremos ofrecer anuncios e impactos eficaces a través del análisis del flujo de clicks.

Si bien es cierto que las cookies tienen sus limitaciones (no siempre podemos disponer de esa información), con el Big Data ya están apareciendo nuevas maneras de obtención de datos de usuario (aplicaciones que monitorizan de manera remota especialmente). Por lo tanto, tomemos como válida esta explicación, a pesar de que hay muchos otros métodos de obtención de datos del usuario y que por lo tanto la herramienta de captura de datos pudiera cambiar. Esto no es realmente crítico por lo tanto en una estrategia de retargeting.

Lo que sí es crítico es el scoring y la elección de los perfiles candidatos ideales para una acción de retargeting dada. Es decir, lo que resulta crítico en una estrategia de retargeting es la calidad de las listas de candidatos a los que impactar. Y aquí es donde entra el Business Analytics del que hablábamos en la entrada anterior. Las reglas de elegibilidad de estos perfiles se van actualizando en base a su efectividad (un aprendizaje automático, vamos). Son muchas las variables que entran en juego en la elegibilidad (edad, frecuencia del contacto anterior, interacciones, comportamiento -abandono de carritos de la compra, visitantes más o menos recientes, compradores, recientes, etc.-, tipo de comportamiento en los puntos de contacto, dispositivo desde el que se ha conectado, localización, histórico productos, etc.).

¿Y cómo se hace esto del scoring? Bueno, básicamente se trata de situaciones de aplicación de los métodos de decisión multicriterio. Son los que tradicionalmente se han venido utilizando. Métodos que ayuda a formalizar los problemas complejos de decisión, y a tomar decisiones más coherentes. Es decir, tenemos muchas variables que afectan a la decisión a tomar (las variables que listábamos en el párrafo anterior), y cada una de ellas tiene un “peso” o “influencia” en la efectividad de la elección final diferente. Unos pesos, que además, se van camabiando en el tiempo según vamos aprendiendo de su efectividad. La formulación algebraica general sería:

Opt z = (z1(x), z2(x), …, zn(x))

Sin embargo, y sobre todo enriqueciéndose del sector financiero, en los últimos años hay una serie de modelos econométricos que permiten construir modelos de scoring para segmentar clientes en dos o más grupos:

  • Modelos de regresión multivariante
  • Análisis discriminante (árboles de decisión, análisis factorial, clúster, et.)
  • Redes neuronales
  • Métodos de programación lineal, donde quedaría encajado los métodos de optimización y simulación como el de decisión multicriterio que anteriormente exponíamos.

¿Y por qué acciones apostar? Bueno, esta pregunta daría para otro post. Podemos resumirlas en las siguientes:

  • Site retargeting: cuando visitamos un sitio web, éste pone una cookie en nuestro navegador, y a partir de ahí veremos anuncios en todas las esquinas que veamos en Internet. Es el clásico y décano en la materia.
  • Retargeting dinámico: una variante de la anterior, usada especialmente en e-commerce (de hecho la usa mucho Amazon), que permite una mayor personalización por hacerse de manera dinámica.
  • Social retargeting: se basa también en cookies, pero en lugar de mostrar anuncios en la red display de cualquier esquina de Internet, lo haremos en sitios sociales (Facebook y su red FBX o Twitter y su Twitter Tailored Audiences).
  • Email retargeting: relacionado con las newsletters, campañas de email marketing y ofertas.
  • Search retargeting: enviar publicidad a usuarios en función de sus búsquedas (palabras clave) en los buscadores.
  • CRM retargeting: grandes plataformas de retargeting que permiten comparar listas de email de tu propiedad con enormes cookie pools disponibles por la plataforma.

De todo lo anterior, me gustaría destacar el Social retargeting, por el auge que está teniendo el Social Paid Media (que hemos destacado al comienzo). Facebook ocupa el primer puesto del ranking en número de usuarios, con 1.400 millones
 activos al mes (y con una estrategia de monetización cada más fuerte, y subiendo en bolsa); seguido muy de cerca por YouTube, que supera los 1.000 millones. Linkedin y Twitter han alcanzado los 364 y 302 millones de usuarios, respectivamente. Facebook nos permite dirigirnos a personas por acciones, intereses y hábitos de consumo; Twitter por intereses y perfiles similares; Linkedin por áreas de trabajo y puestos desempeñados; Youtube sobre la base de la sesión de navegación; el email marketing, en base a la interacción con los contenidos que le hubiéramos hecho llegar, etc. Cada canal, un mundo por explocar. Y el Social retargeting, una muy interesante opción para cualquier empresa.

Por último, indicar que todo esto que hemos explicado sería imposible de realizar con un desarrollo adhoc o herramientas simples. Necesitamos una herramienta de Marketing Automationante la gran cantidad de datos que se deben generar, y luego explotar. Aquí dejo una lista con las 50 mejores. Para proyectos específicos de retargeting, se suele hablar de usar AdRoll. No obstante, dado el auge que tiene Hubspot y su estrategia de Inbound Marketing, yo creo que muchas organizaciones debieran apostar por ello. Es una herramienta más genérica, por lo que nos exigiría trabajo de adaptación, pero también más estratégica la relación y la apuesta de la empresa por el Inbound.

En definitiva, hemos del retargeting, como una estrategia digital y un enfoque de captación de nuevos clientes más acorde a una era de múltiples impactos y puntos de contacto.

El retargeting: de curiosos en la web, a clientes fidelizados (I)

Unas estadísticas para contextualizar de lo que vengo a hablar hoy (sacadas de esta presentación con otras muchas estadísticas):

  • Un sitio web tiene una tasa de conversión ligeramente superior al 2%. Eso implica que el 98% de los que visitan vuestra web (seais el negocio que seais), viene, ve algo, y se va. Y no suele volver.
  • El refuerzo en todo el embudo de marketing (conocimiento de marca, leads, ventas, fidelización, etc.) es fundamental ante la competitividad de acciones y canales que disponen las marcas ya hoy en día en la era digital.
  • Y es que la inversión publicitaria digital (sumando todas sus alternativas de SEO, Performance, Email y Social Paid Media + Social Media Management), ha superado ya a la TV y Radio en Canadá y EEUU. Pero también es cierto que hay que repartir la tarta entre muchos.
  • La inversión en Social Paid Media (pagar por anunciarse en plataformas de Social Media), según datos de eMarketer a nivel mundial, ha subido de 17.740 millones de dólares en 2014 a un estimado de 23.680 millones en 2015 y de 29.910 millones en 2016.

Por todo ello, parece que debemos afrontar este problema de la baja conversión de otra manera. Y alternativas parece que existen (a tenor de las cifras de inversión que hemos visto). Y la estrategia, entre otras, más efectiva (en términos de eficiencia de acciones y rentabilidad económica) es el retargeting (o el remarketing, que es como lo llama Google). Se trata de una técnica de marketing digital que busca impactar con publicidad a usuarios que previamente hubieran interactuado con algún punto de contacto de nuestra marca a lo largo del Customer Journey. Es decir, usuarios que hubieran podido visitar nuestra web (acuérdense de la baja conversión), abandonado un carrito de la compra (¿les suena de cuando están comprando un billete de avión? :-)), abierto un email, etc. Todo ello, claro, con el modelo de personalización de “Customer Centricity” del que ya he hablado también.

Customer Journey y los diferentes puntos de contacto digitales y físicos por los que puede apostar una organización (Fuente: http://www.crownpeak.com/images/digital-touchpoints.png)

El retargeting está ganando mucho interés para las marcas dado que tiene la mayor capacidad de cambio de comportamiento en la navegación de un usuario, incrementando las respuestas a los estímulos a los visitantes en porcentajes importantes. Los que lleguen a vuestra web que vengan de alguna acción de retargeting tienen un 70% más de probabilidad de terminar comprando que aquellos que no vengan de una de estas acciones.

Hoy en día, muchos usuarios que acaban comprando han madurado su decisión de compra a través de aquellos medios en los que pasan más tiempo: móvil y redes sociales. Dos vectores de crecimiento muy importante. La publicidad en redes sociales (ese Social Paid Media que decíamos antes) se sitúa cerca de la decisión de compra, pero rara vez actúa como el último decisor. Pero, claro, la decisión de compra se ralentiza. Se ve influenciada por muchos impactos. Y en esta era de muchos puntos de contacto e impactos, por lo tanto, el retargeting para las empresas es una opción más que interesante. Hacer muchas acciones digitales y no aprovechar el retargeting, seguramente te lleve a tener mucho branding y poca conversión. La queja de siempre: mucho trabajo y pocas ventas, ¿os suena no?

Y todo ello se debe a una de las principales virtudes que tiene esta era del dato que venimos comentando en los últimos meses: la personalización. La transformación digital de los negocios y de la economía en general, lo que más ha alterado, sin duda alguna, es la experiencia del cliente. Un cliente, especialmente los nativos digitales, que se informan en Internet antes de comprar hasta en un 70% de las ocasiones; un 55% quiere un cierto trato personal e individualizado; y un 50% se fía más por lo que opinen sus pares en Internet que de cualquier otro impacto publicitario (que se lo digan a la cadena de valor turística con sitios como TripAdvisor). Por lo tanto, clientes sabios, exigentes y que demandan personalización.

Y aquí, entra perfectamente el retargeting. Como decíamos antes, para organizaciones que tienen un largo Customer Journey, resulta fundamental una estrategia de retargeting. Y para definir qué hacer, entran en juego dos términos que escucharemos mucho en los próximos años: Right Person y Right Offer. Las campañas son costosas y además muchos clientes no responden. La solución a ello es predecir quiénes van a responder a una oferta con más probabilidad a través de modelos de propensión. Es decir, encontrar la “Right person“. Por otro lado, se está saturando a los clientes con múltiples ofertas. Elegir los clientes que tengan más propensión en cada momento, controlar la periodicidad de los envíos y  disponer de pequeñas campañas focalizadas, son las acciones para concretar la “Right Offer“.

Estrategia a seguir para poner en marcha una apuesta por el retargeting
Estrategia a seguir para poner en marcha una apuesta por el retargeting (Elaboración propia)

Esta estrategia de cuatro etapas (que creo bastante explicativa resulta), se puede concretar en el siguiente flujograma que he preparado para ilustrar esta explicación:

Flujograma de la estrategia de retargeting para mi empresa (Elaboración propia)
Flujograma de la estrategia de retargeting para mi empresa (Elaboración propia)

Estas dos representaciones de la estrategia, que utilizo con mucha frecuencia en los cursos, son los que desgranaré en una segunda entrega, para que las empresas vean el valor de aplicar estrategias de retargeting en su día a día.

ROPO: mirar online y comprar offline

Una de las cuestiones que más retos está generando para las marcas B2C (pero también para algunas de las B2B) son los puntos de venta finales. Tras investigar, leer, consultar, recibir recomendaciones, etc., ¿dónde acaba comprando la gente? De esta omnicanalidad (de la que ya he hablado en varias ocasiones –aquí y aquí, por ejemplo-). surgen dos conceptos que están planteando serios retos y las empresas deben conocer:

  • Showrooming: ir a la tienda a conocer productos, para luego acabar comprando online. Son usuarios más sensibles a precios, y que saben que en muchas ocasiones los precios online son más económicos.
  • ROPO o “Research Online, Purchase Offline: consultar información sobre productos en entornos digital, para acabar comprando en las tiendas offline. Son consumidores que prefieren el tacto, la presencia, etc. para terminar su proceso de compra.

Esta última es la que ha despertado mi interés de nuevo tras leer el último estudio sobre e-commerce de IAB Spain. Entre las múltiples cuestiones relevantes que ahí se citan, me ha llamado la atención que el “efecto ROPO“, es realizada por el 20% de Españoles ya. Es decir, 9 millones de ciudadanos de nuestro país, dedica tiempo a mirar por Internet, pero prefiere ir luego a la tienda a formalizar la compra.

Este efecto varía por el canal digital usado para consultar, tal y como se puede leer aquí y apreciar en la siguiente figura. En España disponemos ya de 37 millones de dispositivos móviles con acceso a Internet (28 millones de smartphones y 8 de tablets) y, según Google, entre el 30 y el 40% de las búsquedas diarias que realizamos ya lo hacemos a través de estos terminales. Esto hace que ahora las marcas incluso reciban compras en movilidad, fenómeno antes reservado a espacios más “estáticos” en el hogar o lugar de trabajo.

Fuente: https://ecommercewebmarketing.wordpress.com/2013/09/23/leffet-ropo-research-onlinepurchase-offline-des-consommateurs-multicanaux/
Fuente: https://ecommercewebmarketing.wordpress.com/2013/09/23/leffet-ropo-research-onlinepurchase-offline-des-consommateurs-multicanaux/

Esto, obviamente, nos hace entrever la importancia que tiene para las marcas una buena presencia en Internet. Cuando hablo de estas cuestiones, no me canso de repetir que tener una web o una tienda online no solo debe tener como medida de “rendimiento” las ventas; también hay efectos indirectos como los que estamos señalando, algo así como un “efecto de escaparate”.

Y, en esta misma línea, otra idea subyacente es la importancia de aparecer en Google bien. A sabiendas que nuestro querido buscador tiene el monopolio de las 90% de las búsquedas, y a sabiendas que los porcentajes de acceso directo a páginas es nimio (la gente busca en Google todo antes de entrar a cualquier página), otro elemento que resulta de vital importancia es el disponer de un buen posicionamiento que preceda a la presencia que seduzca al visitante.

Dicho estos “elementos necesarios pero no suficientes” (buen posicionamiento y presencia en Internet), como empresa, uno podría preguntarse: ¿y qué debo hacer yo para hacer frente a este fenómeno ROPO? ¿es bueno o malo? ¿Reto u oportunidad? Bueno, como siempre, es mejor hablar en clave de costes y beneficios. No para todos será igual de importante.

Sabemos que nos gusta poder ver, tocar e incluso probar el producto que queremos adquirir. Esto es algo que el neuromarketing lleva años estudiando. Otro informe, en este caso de FNAC Francia, señala cómo estas personas que investigan primero online y luego van a la tienda física, tienen tickets medios de compra un 33% superiores a aquellos que no han previamente consultado en Internet. Esto es algo que quizás nos resulte a todos familiar. Dada la facilidad de compra que proponen las nuevas aplicaciones y servicios en Internet (experiencia de cliente y usuario), que hagamos grandes carritos de la compra resulta tremendamente fácil. Dado que se funciona con tarjeta de crédito (otra de las cuestiones que lleva a incentivar el gasto), de nuevo, para una empresa, todo esto resulta de enorme atractivo e interés.

Por cierto, esta omnicanalidad y existencia de múltiples canales que atender, hace que las marcas deban tener más presente que nunca la imperiosa necesidad de coordinar todos ellos. Cuando alguna empresa me dice que tiene precios diferentes en función del canal, o que incluso varía el precio si lo pone en buscadores o agregadores de ofertas, es cuando me acuerdo del ROPO y el Showrooming. Aquí es cuando entiendo puede suponernos un riesgo más que beneficio. Un reto más que una oportunidad.

Un reto, esta hibridación de canales digitales y presenciales, que hace que aparezcan muchas situaciones que las empresas deben afrontar. En la siguiente gráfica, con estadísticas mundiales (ya vemos que las tradiciones y culturas al final son diferentes), podemos ver cómo el trasvase entre canales de información y de compra es cada vez mayor. Y, por ello, el dato desempeña su papel clave en todo: o gestionamos las transacciones y flujos de datos adecuadamente, o podremos vivir situaciones en las que mareemos al cliente. Otro campo, muy abonado para el Big Data y las habilidades que exige desempeñar.

El cruce entre canales digitales y offline, y estadísitcas de uso (Fuente: http://www.spaceandtime.co.uk/wp-content/uploads/2015/03/pic-1.jpg)
El cruce entre canales digitales y offline, y estadísitcas de uso (Fuente: http://www.spaceandtime.co.uk/wp-content/uploads/2015/03/pic-1.jpg)

En esta era omnicanal, el reto se encuentra en estar presencia, disponer de buen posicionamiento, y sincronizar bien todos los canales de atención y compra que generen para los usuarios experiencias de compra y uso sensacionales. El ROPO, es un efecto, que provoca que debamos tener una buena presencia digital que esté coordinada con la redención o finalización de la compra presencial. ¿Está vuestra empresa preparada para ello?

Los adblocker, la falta de “customer centricity” y la personalización en la era digital

Mi amigo y gran ex-alumno Alberto Ordás, me pregunta por Twitter por la siguiente noticia:

Fuente: http://www.eleconomista.es/tecnologia/noticias/7478859/04/16/Los-medios-de-EEUU-se-aliaran-contra-el-uso-de-adblockers.html
Fuente: http://www.eleconomista.es/tecnologia/noticias/7478859/04/16/Los-medios-de-EEUU-se-aliaran-contra-el-uso-de-adblockers.html

Entre los múltiples comentarios que incorpora la noticia, me gustaría hablar de lo siguiente:

En este sentido, varios de los editores más destacados del territorio estadounidense tomarán medidas legales contra las compañías productoras de los bloqueadores de publicidad, según revela un estudio de la compañía de investigación Medianomics en el que participaron un total de 42 medios. Y es que el conjunto de estos medios acapara una audiencia de 2.200 millones de usuarios al mes, una cifra que ha motivado a los medios para fomentar entre los lectores la importancia de la publicidad para su supervivencia y para acceder a los contenidos de forma gratuita.

Dado que muchos medios de comunicación, para “monetizar” el valor de sus contenidos (que no entro a valorar los mismos), han estado utilizando publicidad, no les hace mucha gracia que ahora los usuarios tengan la posibilidad de bloquear ese “impacto”. Parece entendible la medida (otra cosa es que la comparta o no). Dejando de lado que el mundo de la publicidad digital es difícil -sí, mucho presupuesto, pero también muchos jugadores para repartirlo-, lo que creo es que estamos confundiendo el tema del que tratar. En el fondo, lo que está en cuestión es si el modelo de publicidad online es bueno ahora mismo. Y es que yo creo que no. Hemos llenado las webs de publicidad totalmente intrusiva, poco personalizada (y mira que la era digital lo permite…) y omnipresente. Esto a la gente le molesta.

Creo que necesitamos un nuevo modelo de publicidad digital basado en la relación. Hasta la fecha, se ha priorizado mucho la cantidad frente a la calidad: es decir, el objetivo era “impactar” mucho al visitante web, “perseguirle” (vaya palabro para el mundo de la publicidad…) y así, se entendía, más compraría. Pero creo que hemos conseguido precisamente el efecto contrario. Los usuarios se han cansado.

Por ello, yo creo que deberíamos evolucionar el modelo “menos publicidad”. (impactar a muchos) que hemos tenido hasta la fecha. La TV todavía no ha terminado de entender que impactar a “más de la cuenta” no es que sea neutro, y sino que encima resulta negativo para la marca. Ya lo dijo el pionero en todo esto, John Wanamaker, hace bastante tiempo:

http://blogs.adlandpro.com/wp-content/uploads/2014/01/Adlandpro-John-Wanamaker-quote.png
Fuente: http://blogs.adlandpro.com/wp-content/uploads/2014/01/Adlandpro-John-Wanamaker-quote.png)

Sé que la mitad de la publicidad de mi empresa no sirve de nada, el problema es que no sé de qué mitad se trata“. Y esto es lo que tenemos ahora mismo en el mundo de la publicidad de los medios y cualquier otra página en Internet. Por ello, creo que el nuevo modelo debiera ser de valor, en el que la información publicitaria sí fuera relevante para el usuario en entorno de estrategias omnicanal. Y el valor, es el “customer-centricity” (centrarnos en el consumidor, no en nuestras empresas) y la personalización.

En una era digital en la que la trazabilidad y la atribución son dos características propias, las marcas no tienen excusas para que esto no sea así. Obviamente, en todo esto, el dato jugará el papel clave que no se ha tenido hasta ahora. No tiene sentido situaciones en las que no sabemos si yo ya he comprado un coche (como he buscado en Google, presuponen que estaré pensando en comprarlo, aunque ya lo haya hecho). Por ello, personalizar el mensaje, establecer un diálogo relevante y de valor con el consumidor, debe ser nuclear en el próximo modelo publicitario de la era digital.

Por un lado, centrarnos en el consumidor para los mensajes. Es decir, pensar en él o ella, y diseñar mis procesos alrededor. Un poco lo que han hecho Starbucks o Netflix. En una era en la que el cliente está tan informado y demanda tanta personalización, las empresas no tienen excusa para poner al consumidor en el centro, y adaptarse ellas a sus preferencias (y no viceversa como hasta la fecha).

Y, por otro lado, tenemos la personalización. Lo que deberán hacer las marcas para anunciarse es adaptar los productos y servicios al conocimiento en detalle de los clientes y usuarios. Y no me refiero solo a sus características, sino también a sus preferencias. El valor bursátil ahora mismo de Facebook y Google está precisamente en los datos: lo que llegan a saber de nosotros. Eso, a sabiendas que se equivocan mucho, y juegan todo el rato con muchas suposiciones (como ha buscado coches, querrá comprar coches -Google-; como le gustan las páginas de coches y ha dado al “Me gusta” a la foto de un coche, querrá comprar un coche -Facebook-). El problema es que ahora mismo no hay nada mejor para conocer bien a los clientes y usuarios de una marca. Y por eso, repito, me parece que lo que debe cambiar es el modelo, no tanto poner vayas al campo en sí.

No se trata solo de sus características, sino también de sus preferencias. Y, éstas, sería bueno obtenerlas a partir de la relación que podamos mantener en el tiempo con ellos. ¿Os acordáis de la gráfica de valor en el tiempo que tanto me gusta? Y es que me encanta por motivos como éste. La relación en el tiempo no solo me permite ofrecerle un mayor valor y para mí una mayor utilidad, sino que también aumenta su grado de satisfacción y el coste de cambio a la competencia será mayor para él.

Representación de la curva del Customer Lifetime Value (Fuente: http://assets.econsultancy.com/images/0002/0115/Email-CustomerLifetimeValue.jpg)
Representación de la curva del Customer Lifetime Value (Fuente: http://assets.econsultancy.com/images/0002/0115/Email-CustomerLifetimeValue.jpg)

El reto, para terminar, de todo esto radica en el respeto de “la ética y en la obtención de soluciones tecnológicas buenas. Ni una ni otra están ahora mismo presentes. En una era en la que la personalización parece pudiera traer grandes beneficios para para el oferente como para el consumidor, la ética está más que nunca encima de la mesa, por los “modelos de aproximación” a la personalización que han seguido estos años. Y, en todo ello, la tecnología, que hoy todavía está muy limitada para poder personalizar todo esto, debe ser respetuosa desde el diseño.

No se trata, así, de una conversación sobre adblockers. Sino sobre valor, personalización y “customer-centricity”. Veremos qué pasa en los próximos años.

De los PCs a los móviles: ¿qué nos depara el futuro? La era de la inteligencia

Desde aquellos años 30 en los que un grupo de matemáticos y lógicos (Turing, Gödel y Church) lanzaron el campo teórico que hoy llamamos Ciencias de la Computación (Computer Science) hasta la fecha, han pasado más de 80 años. Por medio, los años 50-60, cuando nace la industria asociada, que permite llevar a más lugares que grandes laboratorios los ordenadores. Años, en los que a unos cuantos, nos ha despertado interés la informática, la hemos estudiado, y no paramos de hacernos preguntar sobre el futuro de la misma.

La “industria de la computación“, que podemos llamar para simplificar “mundo digital” ha ido desarrollándose siempre de la mano de dos ciclos: el de producto y el financiero. De este último se está hablando mucho últimamente, especialmente porque muchos creen que volvemos al año 2000 y las probabilidades de que exista una burbuja financiera están aumentando. No lo sé. Bueno, mejor dicho, no lo creo. Creo que no son las expectativas irracionales del año 2000, cuando la burbuja de las “.com”, provocó que se descubriera que apenas se creaba valor gracias en aquella época de Internet.

Yo creo que hoy sí está generando valor la constante transformación digital de las industrias. Precisamente acabo de escribir dos artículos (éste y éste) para justificar más éste artículo. Hoy quiero hablar sobre cómo se está generando valor sobre las diferentes plataformas que hoy en día están permitiendo el desarrollo de valor en productos gracias a la era digital: básicamente, Internet y los dispositivos móviles. Y lo hago porque la próxima semana viajo a Arabia Saudí precisamente para dar una serie de workshops sobre la materia a emprendedores que quieren abrazar esta era digital como una oportunidad. Especialmente desde la óptica de la educación, que es lo que hacemos desde eCampus en la Universidad de Deusto.

La respuesta sobre la posibilidad de una burbuja recae siempre en el “ciclo de producto“. Hoy en día, el “Ciclo de producto”, es decir, el producto tecnológico, se puede describir formalmente de la siguiente manera:

Producto tecnológico = Plataforma + Aplicaciones

Es decir, que la posibilidad del desarrollo de producto tecnológico (se entiende que digital, las Tecnologías de la Información y la Comunicación), depende de disponer de una infraestructura de soporte (Plataformas) sobre la que desarrollamos una serie de utilidades o Aplicaciones. A nivel de plataformas y aplicaciones, hasta la fecha, podemos decir que hemos vivido básicamente cuatro ciclos desde los años 50-60:

  1. Era centralizada: sistemas que automatizan trabajos administrativos. Apenas (o ningún) valor intelectual. Se mecanizan ciertos procesos, que se hacen más eficientes.
  2. Era del PC: cliente-servidor. Aparece el ordenador personal, ya no solo como una herramienta de ciertos procesos, sino que pasa al trabajo personal para hacerlo más productivo. Construimos aplicaciones de ofimática y otras de escritorio. Es la era que arranca el Apple II en 1977 y el IBM PC en 1981.
  3. Era de Internet: nace la interconexión entre los PC, que ha desarrollado gran parte de la economía global. Es uno de los pilares de la infraestructura actual. Empezamos a construir aplicaciones como buscadores, correo electrónico, tiendas online, redes sociales, SaaS, etc. Si bien en algunos entornos académicos o militares ya se disponía de algunas de estas cuestiones en los 80s, realmente a nivel de consumo aparece en 1993 con Mosaic, el primer navegador web gráfico.
  4. Era de los dispositivos móviles: el segundo gran pilar, y quizás el ciclo más importante ahora mismo. 2.000 millones de personas tienen al menos 1 smartphone. Y hemos desarrollado aplicaciones móviles para agilizar e intermediar en cadenas de valor como el taxi, alojamientos turísticos, etc. Si bien Blackberry y Nokia irrumpen a comienzos de los 2000, el pistoletazo de salida sin duda alguno lo provocan en 2007-08 el iPhone y Android.

La pregunta ahora recae en lo que está por venir. Es decir, dónde están las oportunidades para los emprendedores. Para ello, quizás sea interesante pararse a pensar en las tendencias hardware y software que se están produciendo, para así hacer una reflexión sobre lo que pudiera aparecer:

  • Hardware: está siendo cada vez más pequeño, barato y ubicuo. Pensemos que las CPU que tenemos ahora son “systems-on-a-chip“, en el sentido de que por 5 dólares tenemos una Raspberry Pi Zero con un procesador de 1 GhZ y 512 MB de RAM. Una locura para los que adquirimos nuestro primer ordenador (hardware) a mediados de los años 90 con características inferiores y precios totalmente desorbitados. Dos cuestiones fundamentales caracterizan al desarrollo del hardware:
    • La Ley de Moore y la industria de los semiconductores: cada vez por menos recursos, tenemos más producto (tanto en capacidad como potencia). Por lo tanto, esta tendencia hardware hace que a futuro, veamos “ordenadores” en todas las esquinas que nos rodean (paredes, autobuses, zapatillas, cunas de nuestros hijos, etc.). Es lo que se ha venido a bautizar como el Internet de las Cosas.
    • Como diría Chris AndersonEl dividendo de la paz en la guerra de los smartphone“: los componentes de los móviles, ante la guerra que se desató entre fabricantes (Apple, Google, Samsung, etc.), hace que sean más económicos que nunca: sensores, GPS, cámaras, procesadores ARM, antenas WiFi, memorias, baterías, etc. Esto, beneficia a industrias colindantes como los drones, sensorización, las fábricas (ahí tenéis la Industria 4.0), etc. etc.
  • Software: estamos viviendo ahora mismo la era dorada de la “Inteligencia Artificial“, tras el “largo invierno” que vivió en los 80 y 90. Quizás derivado de la abundante materia prima que tienen ahora los algoritmos para mejorarse a sí mismos (el “machine learning en la era del Big Data“). Tenemos varias cuestiones moviéndose a gran velocidad:
    • Sistemas distribuidos: Hadoop, Spark, y la posibilidad de paralelizar Bases de Datos y resolución de problemas.
    • Blockchain: para asegurar datos y activos. Ya hablé de ello.
    • Deep Learning: un descendiente directo de las redes neuronales. Pero que se beneficia en la actualidad de la gran cantidad de datos, el bajo precio de la computación y los nuevos algoritmos. Algoritmos de inferencia de conocimiento no conocidos hasta la fecha.
    • Open Source: democratización de las posibilidades de crear. Estamos asistiendo, por primera vez en la historia, a unas capacidades tecnológicas muy “económicas” en términos monetarios, aunque de gran exigencia intelectual. Nada es gratis. Whatsapp se crea con 50 empleadas, y presta un servicio a 1 de cada 9 ciudadanos del mundo (algo más de 900 millones de personas ahora mismo).

Lo bonito de todas estas cuestiones aparece cuando mezclas todo ello. Y es que los sistemas de Inteligencia Artificial, son mejores con una mayor cantidad de datos. El Deep Learning, mejorará en consecuencia. Y las tecnologías Open Source, seguirán desarrollándose. Todo ello, en agregado, produce el “data-network effect“: más usuarios, más datos, llevan a mejores productos, que traen más usuarios. ¿Por qué Google pagó por Waze mil millones de dólares?

Por todo ello, creo que queda todavía mucha inteligencia que aportar a elementos como los asistentes de voz, motores de búsqueda, estrategias de retargeting (una mejora de la publicidad), traductores, automóviles (Über, Tesla, Google, Ford, Daimler, etc.), drones (hardware complejo con un software simple), medicina y abogacía, escáneres e impresores 3D, etc.

Esa capa de “virtualización inteligente” que aporta la mezcla de esas tendencias de hardware y software llevará a la mejora de las prestaciones de esos elementos y áreas. O, al menos, esas es mi visión, claro. De los PCs a los móviles, para aprovechar esta “era de la inteligencia“.

La era de la inteligencia (Fuente: https://leadingedgeforum.com/asset/6508/)
La era de la inteligencia (Fuente: https://leadingedgeforum.com/asset/6508/)

El supuesto “Fin de la titulitis” y cómo las empresas tecnológicas valoran el “saber hacer”

Leo, ya sin sorpresa, la siguiente noticia de ayer en El País:

El fin de la titulitis, en El País (Fuente: http://economia.elpais.com/economia/2016/03/03/actualidad/1457024681_163769.html)
El fin de la titulitis, en El País (Fuente: http://economia.elpais.com/economia/2016/03/03/actualidad/1457024681_163769.html)

La noticia nos habla de programas como el de Empleo Digital de la Fundación Telefónica. Y describe la utilidad de los MOOC del MIT como elemento de “reconversión profesional” de una de las personas entrevistadas. Y, salen cuestiones como:

Las empresas tecnológicas ya no valoran lo que has estudiado sino lo que sabes hacer. Cursos de cuatro meses preparan para ese reto.

Compañías que no miran ni una sola línea del currículum para abrir sus puertas a nuevos empleados.

La tendencia ha llegado a España y muchas empresas tecnológicas han dejado de lado los títulos de los candidatos para valorar in situ su capacidad de superar retos relacionados con la programación.

El objetivo es romper con la titulitis y detectar talento.

Las empresas evolucionan a mayor velocidad que los centros educativos y el hecho de contar con una titulación universitaria ya no es sinónimo de estar a la altura de lo que demanda el mercado, al menos en lo que respecta a las habilidades tecnológicas.

Hace unos días publiqué este artículo en el que hablaba sobre muchas de estas cuestiones. En esta noticia de El País, cómo no, debía existir frases tan constructivas como “Muchos de nuestros trabajadores no terminaron la carrera“. En fin, no hace falta que vuelva a repetir que enfoques y noticias/crónicas como esta me parece que fallan en su concepción e idea a transmitir. Una cosa es que haya habido algunas personas a las que les haya funcionado la experiencia (me gustaría saber concretamente cuántas, entre la población total que estuviera en las mismas situaciones… aunque esto, claro, no lo dice la noticia), y otra cosa es que podamos generalizar la idea que para las formaciones técnicas (foco de la noticia), hacer un curso online o meterse en un programa de especialización tecnológica de Telefónica o Google sea suficiente.

Desde aquellos años 30 en los que un grupo de matemáticos y lógicos (Turing, Gödel y Church) lanzaron el campo teórico que hoy llamamos Ciencias de la Computación (Computer Science) a las gafas de Google o los vehículos autónomos de Apple, han pasado más de 80 años. Años en los que hemos desarrollado una industria informática que demanda muchos profesionales, y que cada vez, los quiere más especializados para sus necesidades concretas y urgencias. Quizás bajo esta mirada o perspectiva nazca la noticia.

Por un lado uno se puede alegrar de ver que las formaciones STEM (Science, Technology, Engineering, and Mathematics) estén cada vez más demandadas. Para eso las universidades tenemos formaciones de Ingeniería en esas materias. Nosotros, las universidades, no tenemos como objetivo ofrecer formaciones especializadas. Nos sería realmente imposible. Además de romper con la naturaleza y filosofía de una universidad. Tendríamos que hacer tantos itinerarios formativos como empresas prácticamente. Nuestra misión es otra. Nosotros ofrecemos una formación básica o conjunta de competencias mínimas para que el estudiante luego tenga la autonomía y capacidad de aprender con cierta autonomía la evolución tecnológica, aprenda a programar o pueda seguir esos cursos de especialización digital que hablábamos. Me gustaría a mí saber qué sería de esos programas de Telefónica o cursos de Google con estudiantes de 18 años sin ningún tipo de formación universitaria.

Cuando nos dicen que las universidades vivimos aisladas de las empresas, de nuevo, me gustaría saber qué entienden por universidad. ¿Una formación centrada en las necesidades tecnológicas de sus empresas? ¿Y qué pasará el día que cambien? Creo que es mejor entender la universidad como los “building blocks” o “bloques mínimos” de conocimiento en una formación técnica necesarios para que luego el estudiante, sí, pueda desarrollarse y aprender a través de cursos online masivos (que da para otra entrada, y donde también, me gustaría saber el éxito de un estudiante que tiene una carrera universitaria frente a otro que no la tiene) o a través de programas de formación tecnológica.

Nosotros, los ingenieros, y las Facultades de Ingeniería, tenemos conocimientos en tres áreas distintas:

  1. Ciencia
  2. Tecnología
  3. Herramientas

Me gusta hacer el símil (no sé cuán riguroso es, pero me sirve como heurístico de explicación), de ver la Ciencia como la Investigación Básica, la Tecnología como el Desarrollo y las Herramientas como la Investigación Aplicada/Innovación (“salida a mercado“). Esto es, los “informáticos”, ejercemos nuestra actividad, como cualquier otro ingeniero o arquitecto de sistemas, en todos los eslabones del polinomio de la I+D+i. Cuando nos dicen que en el año 2020, el déficit de expertos en tecnología será de 800.000 personas según previsiones de la Comisión Europea, a mí me gustaría saber qué es un “experto en tecnología“.

Los Computing Curricula de ACM e IEEE, organizaciones profesionales -no universitarias por cierto-, proponen qué materias deberían ser impartidas en la educación superior de Informática/Computación, conforme a criterios científicos, sociales y profesionales. La propuesta presente en 2009 considera cinco grados:

  1. Computer Science / Ciencias de la Computación
  2. Computing Engineering / Ingeniería de la Computación
  3. Software Engineering / Ingeniería del Software
  4. Information Systems / Sistemas de Información
  5. Information Technology / Tecnologías de la Información

Un “informático” es alguien que aprende el punto de vista científico de la computación, el punto de vista de ingeniería del software y de la computación (que no es lo mismo), aprende las tecnologías para el procesamiento de información y diseña y desarrolla sistemas para elaborar una respuesta y ayudar a las organizaciones sobre dicha información. ¿En todo esto ayuda un MOOC o un programa de Telefónica? No lo creo.

Llevándolo al plano de España, en esta resolución de 8 de junio de 2009, se pueden consultar las competencias que debe adquirir un Ingeniero en Informática (considerando, en general, los 5 currículums anteriormente expuestos). Resumo en:

  • Proyectar, calcular y diseñar productos, procesos e instalaciones.
  • Dirección de obras e instalaciones de sistemas informáticos.
  • Dirigir, planificar y supervisar equipos multidisciplinares.
  • Modelado matemático, cálculo y simulación.
  • Elaboración, planificación estratégica, dirección, coordinación y gestión técnica y económica de proyectos.
  • Dirección general, dirección técnica y dirección de proyectos de investigación, desarrollo e innovación.
  • Puesta en marcha, dirección y gestión de procesos de fabricación de equipos informáticos.
  • Aplicación de los conocimientos adquiridos y de resolver problemas en entornos nuevos o poco conocidos. [Mira, justo lo que dice la noticia 🙂]
  • Comprender y aplicar la responsabilidad ética, la legislación y la de ontología profesional.
  • Aplicar los principios de la economía y de la gestión de recursos humanos y proyectos, así como la legislación, regulación y normalización de la informática.

Es decir, no somos obreros, sino arquitectos. Quiero decir: no, no somos gente en un laboratorio encerrados con un ordenador, sino que hacemos proyecciones y cálculos como cualquier otro arquitecto o ingeniero de sistemas. Que no lo hagamos tan bien y a la medida como las empresas quieren, no es sinónimo de “Una titulación universitaria ya no es sinónimo de estar a la altura de lo que demanda el mercado“. Por lo tanto, sin querer defender la titulitis, pero sí, la universidad es necesaria. Sino, traíganme cifras y pruebas, y estaré dispuesto a cambiar mi opinión 🙂