De producto a experiencia en la era digital: Kodak, ebooks y vinilos

Los que me han escuchado en alguna conferencia, saben que suelo mostrar siempre una gráfica como esta que adjunto a continuación para explicar cómo, en https://www.cialissansordonnancefr24.com/cialis-5-mg/ esta era digital en la que estamos sumergidos, hemos entrado ya en la era de la experiencia. Starbucks es el paradigma de ello: ha cogido un producto, una cadena de valor, que llevaba explotándose décadas, siglos (en 1652 llega la primera cafetería a Europa), y se ha convertido en una empresa que vale 80.000 millones de dólares en bolsa.

Starbucks
De materia prima a experiencia: el caso Starbucks (Fuente: https://www.whitehutchinson.com/images/20100911coffee.jpg)

Esto se produce en un contexto en el que la era digital de transformación de la que tanto hemos hablado, también debe hacer una reflexión. Son varias las noticias en estas últimas semanas que me han llevado a hacer esta reflexión. Kodak ha revivido su Ektachrome, la cinta para fotógrafos por antonomasia. Récord de ventas de vinilos de los últimos 25 años. Los libros en papel, reviviendo igualmente. Aquí hablé detenidamente, de este último fenómeno en concreto.

¿Por qué está ocurriendo esto? No es la primera vez en la historia que observamos un fenómeno así. Cuando las revoluciones (en este caso digital), ya han avanzado en su aparición, suelen requerir de un ajuste. Y es que al “hype” inicial (que es cuando más en frío se deben analizar las cosas), suelen sumarse personas que no analizan realmente el valor que aporta. Y en esta era en la que muchos hablamos de la economía de la experiencia, el valor debe ir por ahí.

Mi experiencia de lectura en papel es mucho mayor que la digital. A los fotógrafos (no tengo ni idea de eso, lo siento), seguramente les ocurra que las fotografías impresas a partir del Ektachrome, ofrezca una calidad mejor que la digital. La calidad para oídos finos de un vinilo, seguramente sea más enriquecedora que escuchar una canción digital.

Y es que al final, queremos experiencias. Disfrutar, no solo consumir “algo nuevo”. Y es quizás lo que ha acompañado sector tras sector en esta era digital. Si nos fijamos en qué gastamos nuestro “tiempo libre”, son experiencias: vacaciones, diseñamos nuestra casa, leemos periódicos o navegamos por Internet, etc.

Quizás entonces, debamos estar empezando a hablar de la era “post-boom-digital“. Una era en la que todavía falta mucho de reconfigurarse. Y que podamos finalmente, dentro de un tiempo, reflexionar sobre lo que de verdad aportó valor. Y lo que realmente permitió transformar. No por poner el apellido “digital” a algo ya se vuelve de valor. Si no genera una experiencia positiva en el que lo usa, pudiera pasar como pasó con la fotografía o  la lectura: que volvamos al origen.

Este mundo de la experiencia digital, de poder ofrecer desde nuestras una propuesta de valor centrado en todo ello, la pregunta que faltaría es a ver quién tiene que liderar este mundo dentro de las organizaciones. Muchos lo han visto tradicionalmente como un campo del CIO (o responsable de informática o tecnología dentro de las empresas) o como terreno para el CMO (responsable de marketing). Todos sabemos, o seguramente hayamos vivido experiencias de lo que ocurre cuando dejamos solo en manos de uno de las dos áreas un tema tan crítico como la generación de experiencias para nuestros clientes. Seguramente sea porque se trato de un híbrido entre ambos. Y quizás, un área que deba nacer con entidad y atribución propia en los próximos años: el/la Chief Experience Officer.

De consolidarse la tendencia, no me parece algo descabellado que ocurra. En una era en la que sí proliferan canales (redes sociales, mensajería instantánea, comunidades online, aplicaciones móviles, bots, realidad virtual, etc.), lo que está claro es que debemos identificar la lógica y naturaleza de cada uno de ellos para que entendamos bien si es algo interesante para mi empresa. ¿Tengo que hacer una aplicación de realidad virtual? Quizás sí, o quizás no. ¿Tengo que estar en redes sociales? Pues seguramente sí, aunque no tan activos como quizás deban estar otras empresas. Y así, en realidad con todas, siempre poniendo en el centro el foco en la experiencia positiva para mis clientes. Y ahí debería estar la conversación.

Evolución de la experiencia digital en el tiempo (Fuente: http://68.media.tumblr.com/90ec1a41ab55cb5178c8376070c9ff47/tumblr_oj802kaCJC1qzdepwo1_1280.jpg)
Evolución de la experiencia digital en el tiempo (Fuente: http://68.media.tumblr.com/90ec1a41ab55cb5178c8376070c9ff47/tumblr_oj802kaCJC1qzdepwo1_1280.jpg)

 

Tras Amazon Web Services, ¿llega Amazon Transport Services?

He hablado de Amazon en muchas ocasiones. Básicamente, porque me encanta su modelo de visión estratégica de largo plazo centrada en los objetivos que tuvieron desde el primer día. Sin mayores bandazos. En el último artículo en el que citaba cuestiones relacionadas con su actualidad, introducía su mayor reto actual, que no es otro que la logística. Y al final del mismo, dejaba esta reflexión:

Estos movimientos de Amazon me hacen siempre pensar en cómo, en este Siglo XXI, estamostratando de conjuntar la enorme capacidad de computación y conexión en red (que ha favorecido, especialmente, el empuje del comercio electrónico) y el cambio en los hábitos de compra (pregunten a los millenials), con una infraestructura de transporte y distribución todavía del Siglo XX. Solo los drones, parecen aportar algo de innovación a ese respecto.

Esto, pudiera estar cambiando. Este artículo de Bloomberg no puede ser más provocador (a efectos de reflexión):

Amazon matará FedEx?
Amazon matará FedEx?

Para que se hagan ustedes a la idea, es como si estuviéramos poniendo en duda en España que Amazon pudiera algún día terminar con Correos. Básicamente el artículo viene a describir cómo Amazon está convencido en construir la mayor red de distribución en el mundo, a través de puntos de distribución centralizados y distribuidos. Desde que una persona quiere distribuir un paquete, pasando por toda la interconexión modal, y hasta la entrega final, Amazon quiere construir una cadena que le aporte eficiencia en todas las esquinas. Que es, lo que exactamente, aporta de diferencial frente a otros. Y lo que le está permitiendo ganar mucho dinero.

Lo cierto es que actualmente Amazon es un gran partner para estos grandes operadores como UPS y FedEx. Pero lo que se está poniendo encima de la mesa es hacer la misma jugada que hizo cuando se dio cuenta que contaba con una infraestructura de red escalable que funcionaba muy bien y que acabó siendo Amazon Web Services. Aprovechó su propia infraestructura, y la empezó a ofrecer a terceros a través de un modelo de contratación como servicio.

Si Amazon consigue llegar a tener la mayor infraestructura de transporte intermodal del mundo (aviones propios, barcos propios, furgonetas propias, última milla propia, etc.), no nos debiera extrañar que hicieran el mismo movimiento: ofrecer esa infraestructura a terceros a través de un modelo de contratación bajo servicio. Amazon ahora cuenta con el 30% de la cuota de mercado de servicios de alojamiento en la nube. Con una facturación total de 2.570 millones de dólares. ¿Será capaz de hacer algo parecido con la infraestructura de reparto de mercancías? A mí la verdad es que es una reflexión que me genera bastante inquietud.

Un modelo de “full stack” que haría que Amazon dejase de depender de terceros para un punto tan crítico como la logística. Algo, que ya le ha fallado en alguna ocasión, como comentaba en este artículo. La misma razón que le llevó en su día a construir su propia infraestructura web. El crecimiento que está teniendo Amazon hace que no sea impensable llegar a un punto que genere tanta presión en estos proveedores que le salga bastante más rentable tener su propia red. Es una cuestión de amortización de un coste de estructura que representa un coste fijo. En 2010, Amazon facturaba 34.000 millones de dólares con 33.700 empleados. En 2015, 107.000 millones de dólares para 268.900 empleados. No para de crecer tanto en espacio como en necesidades de todo tipo de recursos: personas, tecnologías, financieros, etc.

Todo esto, como señala el artículo de Bloomberg, va a depender mucho del éxito que pueda cosechar su servicio Premium. Esos 99 dólares de tarifa plana anual con la que un comprador se garantiza una entrega en dos días. Ya saben que las tarifas planas provocan en nuestra mente una necesidad innata de amortizar bien esa inversión. Para Amazon, la jugada perfecta: más clientes tendrá, dado que más compras querrá hacer la gente. Según Consumer Intelligence Research Partners, actualmente hay 63 millones de personas suscritas a dicho plan, 19 millones más que un año antes. Ese servicio, además, no para de mejorar: en algunas ciudades, para algunos ítems, estamos hablando ya de entrega en horas. Un servicio, que cuando lo veamos por estas latitudes, alterará mucho nuestros patrones de compra y nuestra asistencia semanal al supermercado. ¿Cómo acabaremos haciendo la compra si alguien nos puede llevar todo a casa en una escala de horas?

Todo esto, para terminar, funcionando con modelos de optimización logística donde el “Big Data” juega su papel. Y donde economistas, aportan su mirada a los algoritmos, como comentábamos en una entrada anterior. Estos algoritmos que, algún día, serán como la electricidad: ni siquiera ya nos damos cuenta que está ahí, pero hace funcionar “todo”.

Y es que, ya saben, Amazon tiene varios lemas en su día a día. Y, uno de ellos, es hacer historia.

Amazon Transport Services
Amazon Transport Services

Amazon y los productos frescos: ¿riesgo o amenaza?

Quizás ya se han enterado que Amazon ha lanzado Amazon Prime Now para Madrid y alrededores. Las condiciones son realmente espectaculares: reparto en una hora por 5,9 euros y gratis si somos capaces de esperar 2 horas. Esto, para 18.000 referencias. Entre las que, además de sus tradicionales productos de hogar, electrónica y entretenimiento, encontramos productos de alimentación. Y esto es lo que me parece más novedoso e interesante de analizar. Básicamente, porque el músculo financiero de Amazon (de lo que ya hablé), les permitirá optimizar procesos cuanta más escala alcancen. Y poder hacer ferente así a las grandes cadenas de distribución de alimentación y frescos (especialmente) de nuestro país.

Un estudio elaborado por  Kantar Worldpanel en 2015, decía que las caídas que desde hace años se registraban en el sector del Gran Consumo en España empezarían a mejorar en 2015. Estas buenas perspectivas, son siempre un buen reflejo de las economías, más en un país como el nuestro en el que el consumo es tan determinante del PIB.

Los hogares españoles, en 2014, último año con datos, gastaron de media 4.160 € en compras de productos de alimentación, droguería y perfumería. Destaca entre ellos la sección de frescos, dado que la gran distribución (hipermercados, supermercados y discounters) son responsables ya del 53% del gasto en esos productos. Por lo tanto, estos centros, dependen cada vez más de cómo y dónde compremos esos frescos. Además, esa cifra no para de crecer. La última variación interanual es del 1,4%.

A ello, debemos sumarles que vamos cada vez menos a los grandes centros de distribución, pero cada vez llenamos más el carrito. Es decir, somos menos recurrentes, pero cada vez que vamos, gastamos más. Los carros se llenan más. Y además, lo hacemos con deseos de probar nuevas marcas. Todo esto hace que la fidelización y sus tarjetas asociadas tengan ahora más importancia que nunca antes. No se sorprendan entonces de los datos que les piden cuando van a hacer la compra.

Se vuelve a llenar el carro de la compra (Fuente: http://www.elobservatoriocetelem.es/wp-content/uploads/2015/02/disciplina-2015.jpg)
Se vuelve a llenar el carro de la compra (Fuente: http://www.elobservatoriocetelem.es/wp-content/uploads/2015/02/disciplina-2015.jpg)

Os estaréis preguntando qué hago hablando de datos de consumo en este blog tan habituado a aspectos tecnológicos. Bueno, pues realmente, ponía esto en contexto para hablar de Amazon. Básicamente, porque al parecer, ya se encuentra negociando con las grandes marcas para ofrecer un servicio de suscripción premium para vender frescos.

De Amazon he hablado en reiteradas ocasiones. Una de las grandes tecnológicas. He hablado de ellos para describir cómo se había convertido en la mayor tienda de ropa de EEUU y cómo estaba trabajando para mejorar enormemente su logística. Su fuerte ha estado en los productos no perecedores. Pero eso, parece que pudiera estar cambiando. Está trabajando también para vender productos frescos. Y esto, es importante para las grandes marcas de distribución en España, así como para fabricantes, que pueden tener ahora nuevas alternativas para distribuir sus productos hasta el consumidor final.

Y esto último parece que es lo que está haciendo Amazon. Al parecer, está en conversaciones con importantes marcas de productos cárnicos, lácteos, etc. Productos, que por su naturaleza, es fácilmente entendible requerirán de una máquina logística sin precedentes. Precisamente donde señalé en un artículo anterior, Amazon estaba trabajando a destajo. En Madrid y Barcelona, ha preparado dos bases logísticas para entregas de última hora.

De hecho, el servicio “Amazon Premium Now”, que entrega en un máximo de dos horas en ciudades de EEUU y Reino Unido ahora mismo, parece que será la apuesta en España. El mismo movimiento que ya ha hecho en Italia, concretamente en Milán.

Siempre que escucho estas cuestiones para países como EEUU y Reino Unido, acabo pensando en competencias digitales. Quizás sea porque lo considero el hábito digital como el mayor reto que tenemos en España para que estos modelos funcionen. Ojo, no digo que sea mayor o menor, sino que la cultura existente será la que permita que esto triunfe o no. Por otro lado, y al hilo de esto, también permitirá que nazca un sector o se dinamice el ya existente (con empresas como Ulabox), dado que con Amazon, se creará la noticia, y la gente se interesará por ello. Ojo emprendedores, que creo habrá oportunidades cuando un gran jugador llega para cambiar las reglas establecidas.

La última inquietud que parece abrirse en relación a todo ello es cómo afectará este movimiento de Amaozn a la gran distribución en España. Para que lo pongamos en contexto, me refiero a todas estas empresas:

Las cifras de la gran distribución en España (Fuente: http://www.elobservatoriocetelem.es/wp-content/uploads/2015/02/PerspectivasGranConsumo20151.jpg)
Las cifras de la gran distribución en España (Fuente: http://www.elobservatoriocetelem.es/wp-content/uploads/2015/02/PerspectivasGranConsumo20151.jpg)

No creo que esto haga bajar la persiana a nadie, pero si no hay movimientos, sí que creo que pudiera provocar daños. Supongo, así, que lás áreas responsables de comercio electrónico de estas empresas, estarán preocupadas y ocupadas con estos movimientos de Amazon.

No lo tendrán fácil. La logística de Amazon (el gran caballo de batalla del comercio electrónico) tiene importantes ventajas competitivas. He hablado de ello en reiteradas ocasiones, incluso invitando al renacimiento del ave phoenix de Correos. Sinceramente, no tengo claro cómo poder hacer frente a semejante tamaño. ¿Intentar colaborar con Amazon? Si no puedes con tu rival, júntate a él, suelen decir. Pero entiendo que quizás ahí el incentivo de Amazon para hacerlo no exista.

¿Tratar de replicar ese imperio logístico? la inversión que requiere ello, no creo que está en mano de nadie (ni siquiera de Mercadona). ¿Hacer un llamamiento al proteccionismo? Venga, que estamos en el siglo XXI de la globalización e Internet. No es posible. ¿Buscar nuevas fórmulas a través de la innovación y el emprendimiento? Creo que esta última puede ser la llave. Y ahí, lo que nos ha ocupado en este blog reiteradamente (Big Data, Marketing Digital, ecommerce, transformación digital, etc.), resultará fundamental.

Interesante ver la evolución de todo esto. Volveremos sobre ello, seguramente. Amazon y su distribución de productos frescos, hará que la gran distribución deba reflexionar sobre cómo hacer frente a ello. ¿Riesgo u oportunidad?

El “cable de Bilbao” y la importancia de la conectividad y latencia de las redes de comunicaciones

Hace unas semanas, aquí por Bilbao, nos levántabamos con la noticia que un cable submarino de Microsoft y Facebook uniría Virginia Beach en EEUU (buscando diversificación respecto a New York o New Jersey) con nuestra noble villa. Un total de 6.600 kilómetros de cable. El objetivo no era otro que crear una “autopista” en el mar que transfiriese datos a 160 terabits por segundo para así poder hacer uso de los servicios online de ambas compañías de una manera más rápida y estable.

Fuente: http://www.ecestaticos.com/image/clipping/654/d823ba912c77dc52d7dab539470417b3/imagen-sin-titulo.jpg
Fuente: http://www.ecestaticos.com/image/clipping/654/d823ba912c77dc52d7dab539470417b3/imagen-sin-titulo.jpg

Dos empresas, Facebook y Microsoft, entre las top-4 del mundo y de la tecnología ahora mismo. Bastante sintomático. El cable submarino de mayor capacidad de los que cruzará el Atlántico y el primero que conectará EEUU con la parte más sudeste de Europa. De ahí, estas empresas, quieren conectarse con ramas hacia África, Oriente Medio y Asia.

La búsqueda de un mayor ancho de banda responde al interés de muchas empresas por mejorar su conectividad y latencia. Ya he comentado en anteriores ocasiones, que el mundo se está conectando a una velocidad muy importante (incluso con dominios .cloud) y que además, muchas empresas están estudiando cambiar su paradigma y forma de definir la estrategia tecnológica y digital a través de las tecnologías cloud.

Esto me lleva a pensar que en unos años, a los ciudadanos, a las empresas, a los gobiernos, etc., nos preocupará más la latencia y conectividad de las comunicaciones que la capacidad de computación. Esto último, ya parece cada vez más commodity. Migramos más a la nube nuestro día a día, desde los propios datos (espacios de almacenamiento en la nube), hasta el procesamiento de los mismos, por lo que cada vez trabajamos más en nuestro ordenador o dispositivo móvil, pero disponiendo los datos y su computación en la propia nube.

Es más, la nueva informática cognitiva (próxima a nuestro cerebro), algorítmica (toma de decisiones en base a reglas y evidencias conocidas) y social (conexión entre humanos), mejora cada día a día gracias a la conectividad y los datos. Desde los bots, pasando por los algoritmos de cajas negras, hasta el paradigma blockchain como exponente de las arquitecturas abiertas, esta necesidad parece una tendencia sin freno.

Volvamos a España y nuestras necesidades. Actualmente, esa nube sobre la que trabajamos está fundamentelmente alojada en centros de datos de Irlanda, Países Bajos y Alemania. Esto puede tener sentido a sabiendas que las latitudes del norte de Europa ofrecen una climatología para refrigeración de las granjas de servidores en lugares fríos. Esa distancia física, no es problema, a sabiendas que la “demanda cloud”, no es tan grande como puede serlo en pocos años.

Sin embargo, esto pudiera cambiar si la latencia y conectividad se vuelven más críticas, y si encima, en España, seguimos desarrollando una industria de energías renovables fuerte (solar y éólica, que aprovechen nuestras singularidades geográficas y nuestra meseta y biodiversidad), que haga sostenible disponer de importantes equipos de refrigeración. En ese momento, es cuando podemos pensar en disponer de una industria de centro de datos en España. Creo que el movimiento de Facebook y Microsoft nos debe permitir anticipar la necesidad que habrá de llevar cables importantes a los mercados estratégicamente relevantes. Entre los cuales, esperemos esté España. Y cuando la latencia (suma de retardos temporales dentro de una red) sea crítica, no podremos permitirnos tener esos centros de datos a tantos kilómetros.

Ya sé que es un mantra, pero es que los datos no van a ser una industria secundaria. La Inteligencia Artificial ha mejorado gracias a los datos. El paradigma del Big Data, está transformando muchas industrias, y dando muchas palancas de competitividad.

Esto, desde una perspectiva de lo público, también debiera ser objeto de reflexión. Estamos adelantando una era en la que la creación de spin-offs, startups, etc., dependerá en gran medida de la conectividad y la baja latencia. Estamos hablando de una era en la que los emprendedores serán el vector de cambio más importante. Y por lo tanto, privarles de estas capacidades de computación en la nube, será mermarles la competitividad en un plano internacional. Lo que en otra época fue la electricidad o el acceso a mercados de capitales, en un futuro próximo serán la expresión en bits y las redes que permitan intercambiarlos a una velocidad realmente alta.

Por ello, quiero creer que nuestros representantes son conscientes del handicap de comunicaciones que tenemos en España. Y sé que estoy entrando en un tema ciertamente polémico. Pero no quería dejar de subrayar, que estamos hablando de un tema que afecta a todos, y como tal, debe ser resuelto también por una participación de las instituciones.

Como ven, la competitividad del Siglo XXI puede que se mida en conectividad y latencia. En España reunimos muchas características para que podamos disponer de una industria de centro de datos importante. Solo hace falta darnos cuenta de lo que tenemos.

¿Qué son los bots y qué posibilidades nos traen?

Supongo que algunos de ustedes recordarán la serie de “El Coche Fantástico” (The Knight Rider en otras latitudes y longitudes). En esta serie, un jovencísimo David Hasselhoff, se comunicaba y daba órdenes a través del uso de un smartwatch (fíjense qué cosas) a un coche (Kitt), que actuaba en consecuencia.

Michael Knight llamando a Kitt a través de un smartwatch (Fuente: http://www.tuexperto.com/wp-content/uploads/2014/12/tecnologias_ciencia-ficcion_2014_07.jpg)
Michael Knight llamando a Kitt a través de un smartwatch (Fuente: http://www.tuexperto.com/wp-content/uploads/2014/12/tecnologias_ciencia-ficcion_2014_07.jpg)

Me pasé toda mi infancia soñando con poder interactuar con las máquinas de esta manera. Esto quizás fue así porque los que nacimos en los 80, nos críamos en una época en la que la interacción con los dispositivos no era lo que es hoy en día. Desde entonces, siempre me ha interesado mucho la evolución de la interacción con los ordenadores y dispositivos en general.

Esto vuelve a estar de moda hoy en día gracias a los bots. Viene a ser la versión software de un robot. Ya sabéis, esos programas que simulan tener conversaciones con nosotros, que interpretan nuestros deseos, y ejecutan acciones en consecuencia. En definitiva, poder comprar algo en una tienda online, reservar un billete de avión o pedir que venga un coche autónomo como Kitt a recogerte a un sitio concreto simplemente dando una orden.

Fíjense en la enorme diferencia a cómo diseñamos hoy en día las aplicaciones para que fácilmente se pueda hacer esto mismo introduciendo datos con nuestros pulgadores o dedos. El salto me parece importantísimo. Y están de moda, porque dado que las aplicaciones de mensajería se están imponiendo a las redes sociales, aplicaciones como Facebook Messenger, Kik, WeChat, Telegram, etc., están como locas intentando facilitar aún más el envío de mensajes y la interpretación de las órdenes (cuando lo son). Microsoft también lo está, y entiendo es cosa de días/meses que se generalice su uso dentro de Skype.

Los jóvenes quieren interactuar con texto, por lo que esto abre un campo de desarrollo de estas aplicaciones importantísimo, de tal manera que muchos negocios se podrían apalancar sobre estas aplicaciones para construir sus propuestas de valor. Este último punto me parece especialmente significativo, dado que cada vez usamos menos aplicaciones, y nos cuesta más descargar aplicaciones. Por lo que construir nuestra propuesta de valor sobre plataformas de terceros (entiendo que el valor bursátil de Facebook tiene mucha explicación aquí) parece una buena idea. Perdemos la capacidad de gestión y de los datos, pero ganamos en desarrollo de negocio. Costes y beneficios, como siempre.

Piensen en muchas de las funcionalidades que ejecutamos dentro de las aplicaciones que empleamos en nuestro día a día que son susceptibles de ser entendidas por un bot y obrar en consecuencia:

  • Hacer un pedido.
  • Solicitar una información.
  • Llamar o escribir a un amigo.
  • Actualizar una información en tiempo real
  • etc,

Es decir, tareas donde queremos que el bot trabaje de manera autónoma. Sin mayor esfuerzo por nuestra parte. Quizás muchos piensen que esto no es nada nuevo. Es probable. El asunto es que disponemos hoy en día de unas capacidades de cómputo que han hecho evolucionar al software, dando lugar a grandes avances en el mundo del machine learning, tecnologías de procesamiento de lenguaje natural y del deep learning (representaciones de los datos de tal manera que facilite el facilitar el aprendizaje automático, y por lo tanto, mejore la autonomía de los algoritmos y el aprendizaje de la voz, las órdenes, la interacción, etc.). Esto, ha provocado que los bots, nos parezcan más inteligentes que nunca. Especialmente, para tres situaciones, que creo es donde más desarrollo veremos:

  • Los bots trabajando de manera autónoma para ayudarnos de manera activa (estamos trabajando en un Google Doc de manera colaborativa, y tras detectar que no llegamos a un punto de entendimiento, nos sugiere a través de Google Calendar que nos reúnamos vía Google Hangouts para resolverlo).
  • Disponer de un asistente personal para darle órdenes (pedidos, informaciones, etc., lo que veíamos antes)
  • Interacciones más sofisticadas como conversaciones naturales en las que finalmente llega a entender y mejorar nuestra situación (por ejemplo, cuando estamos comprando, y nos sugiere productos o servicios alineados con nuestros intereses)

De esta manera, llegamos a un escenario en el que los bots de manera pasiva y activa trabajan para nosotros, ¿seguiremos buscando nosotros? Esto seguro que Google está pensándolo con tranquilidad. ¿Pudiera llegar Google a perder el monopolio de su valor añadido -la búsqueda y localización rápida de “TODA” la información?

Con todas estas posibilidades, como decíamos antes, hay varias aplicaciones de mensajería que han reaccionado rápido, y entiendo que bien. Kik, una aplicación de chat muy popular entre los jóvenes (no todavía en España, pero sí en EEUU), abrió hace no mucho una tienda de bots. A mí esto me recuerda a la época de los tamagotchis, el poder comprarte un bot con el que poder hablar, trabajar, interactuar, etc. Fascinante. Ahí están por ejemplo los bots de H&M y Sephora para comprar ropa, o la de The Weather Channel para consultar el tiempo. Lo interesante de todo esto es que llegaremos a un punto pronto en el cual será fácil crear nuestro propio bot. Kik, por ejemplo, ya lo permite usando sus herramientas de desarrollo.

Fuente: https://tctechcrunch2011.files.wordpress.com/2016/04/sephora.png?w=680&h=382
Aplicación de Sephora (Fuente: https://tctechcrunch2011.files.wordpress.com/2016/04/sephora.png?w=680&h=382)

No podemos terminar este artículo introductorio al mundo de los bots sin hablar de los modelos de negocio (pensemos en cómo Kik, por ejemplo, pudiera llegar a monetizar sus bots no solo a través de la venta de ellos, sino también con comisiones sobre ventas realizadas con el uso de su software o con modelos de suscripción o publicidad) y el campo de la responsabilidad legal y ética. Este último campo, como sabéis, a mí siempre me interesa y preocupa. El accountability de los algoritmos es algo de lo que ya he hablado. El funcionamiento autónomo de un software creado con unas intenciones, siempre he creído que debe tener cierto “control”. Ahí es donde la ética debe entrar.

Los bots, como ven, ya están aquí. En nuestras manos está  hacer un uso ético de esta potente tecnología.

 

ROPO: mirar online y comprar offline

Una de las cuestiones que más retos está generando para las marcas B2C (pero también para algunas de las B2B) son los puntos de venta finales. Tras investigar, leer, consultar, recibir recomendaciones, etc., ¿dónde acaba comprando la gente? De esta omnicanalidad (de la que ya he hablado en varias ocasiones –aquí y aquí, por ejemplo-). surgen dos conceptos que están planteando serios retos y las empresas deben conocer:

  • Showrooming: ir a la tienda a conocer productos, para luego acabar comprando online. Son usuarios más sensibles a precios, y que saben que en muchas ocasiones los precios online son más económicos.
  • ROPO o “Research Online, Purchase Offline: consultar información sobre productos en entornos digital, para acabar comprando en las tiendas offline. Son consumidores que prefieren el tacto, la presencia, etc. para terminar su proceso de compra.

Esta última es la que ha despertado mi interés de nuevo tras leer el último estudio sobre e-commerce de IAB Spain. Entre las múltiples cuestiones relevantes que ahí se citan, me ha llamado la atención que el “efecto ROPO“, es realizada por el 20% de Españoles ya. Es decir, 9 millones de ciudadanos de nuestro país, dedica tiempo a mirar por Internet, pero prefiere ir luego a la tienda a formalizar la compra.

Este efecto varía por el canal digital usado para consultar, tal y como se puede leer aquí y apreciar en la siguiente figura. En España disponemos ya de 37 millones de dispositivos móviles con acceso a Internet (28 millones de smartphones y 8 de tablets) y, según Google, entre el 30 y el 40% de las búsquedas diarias que realizamos ya lo hacemos a través de estos terminales. Esto hace que ahora las marcas incluso reciban compras en movilidad, fenómeno antes reservado a espacios más “estáticos” en el hogar o lugar de trabajo.

Fuente: https://ecommercewebmarketing.wordpress.com/2013/09/23/leffet-ropo-research-onlinepurchase-offline-des-consommateurs-multicanaux/
Fuente: https://ecommercewebmarketing.wordpress.com/2013/09/23/leffet-ropo-research-onlinepurchase-offline-des-consommateurs-multicanaux/

Esto, obviamente, nos hace entrever la importancia que tiene para las marcas una buena presencia en Internet. Cuando hablo de estas cuestiones, no me canso de repetir que tener una web o una tienda online no solo debe tener como medida de “rendimiento” las ventas; también hay efectos indirectos como los que estamos señalando, algo así como un “efecto de escaparate”.

Y, en esta misma línea, otra idea subyacente es la importancia de aparecer en Google bien. A sabiendas que nuestro querido buscador tiene el monopolio de las 90% de las búsquedas, y a sabiendas que los porcentajes de acceso directo a páginas es nimio (la gente busca en Google todo antes de entrar a cualquier página), otro elemento que resulta de vital importancia es el disponer de un buen posicionamiento que preceda a la presencia que seduzca al visitante.

Dicho estos “elementos necesarios pero no suficientes” (buen posicionamiento y presencia en Internet), como empresa, uno podría preguntarse: ¿y qué debo hacer yo para hacer frente a este fenómeno ROPO? ¿es bueno o malo? ¿Reto u oportunidad? Bueno, como siempre, es mejor hablar en clave de costes y beneficios. No para todos será igual de importante.

Sabemos que nos gusta poder ver, tocar e incluso probar el producto que queremos adquirir. Esto es algo que el neuromarketing lleva años estudiando. Otro informe, en este caso de FNAC Francia, señala cómo estas personas que investigan primero online y luego van a la tienda física, tienen tickets medios de compra un 33% superiores a aquellos que no han previamente consultado en Internet. Esto es algo que quizás nos resulte a todos familiar. Dada la facilidad de compra que proponen las nuevas aplicaciones y servicios en Internet (experiencia de cliente y usuario), que hagamos grandes carritos de la compra resulta tremendamente fácil. Dado que se funciona con tarjeta de crédito (otra de las cuestiones que lleva a incentivar el gasto), de nuevo, para una empresa, todo esto resulta de enorme atractivo e interés.

Por cierto, esta omnicanalidad y existencia de múltiples canales que atender, hace que las marcas deban tener más presente que nunca la imperiosa necesidad de coordinar todos ellos. Cuando alguna empresa me dice que tiene precios diferentes en función del canal, o que incluso varía el precio si lo pone en buscadores o agregadores de ofertas, es cuando me acuerdo del ROPO y el Showrooming. Aquí es cuando entiendo puede suponernos un riesgo más que beneficio. Un reto más que una oportunidad.

Un reto, esta hibridación de canales digitales y presenciales, que hace que aparezcan muchas situaciones que las empresas deben afrontar. En la siguiente gráfica, con estadísticas mundiales (ya vemos que las tradiciones y culturas al final son diferentes), podemos ver cómo el trasvase entre canales de información y de compra es cada vez mayor. Y, por ello, el dato desempeña su papel clave en todo: o gestionamos las transacciones y flujos de datos adecuadamente, o podremos vivir situaciones en las que mareemos al cliente. Otro campo, muy abonado para el Big Data y las habilidades que exige desempeñar.

El cruce entre canales digitales y offline, y estadísitcas de uso (Fuente: http://www.spaceandtime.co.uk/wp-content/uploads/2015/03/pic-1.jpg)
El cruce entre canales digitales y offline, y estadísitcas de uso (Fuente: http://www.spaceandtime.co.uk/wp-content/uploads/2015/03/pic-1.jpg)

En esta era omnicanal, el reto se encuentra en estar presencia, disponer de buen posicionamiento, y sincronizar bien todos los canales de atención y compra que generen para los usuarios experiencias de compra y uso sensacionales. El ROPO, es un efecto, que provoca que debamos tener una buena presencia digital que esté coordinada con la redención o finalización de la compra presencial. ¿Está vuestra empresa preparada para ello?

El “modelo de publicidad de Google”, la atención y algoritmos

Instagram, está de cambio. Al parecer, está trabajando en un algoritmo de personalización que permitirá que veamos resultados que más “nos interesan”. Un movimiento que sucede a los que ya hicieron en su día Facebook o Twitter -ahí nació el hashtag #RIPTwitter-, con sus algoritmos de personalización de resultados a los deseos y gustos del “consumidor” (nosotros, los usuarios). Es decir, huyendo de la ordenación cronológica, lo que buscan es que veamos aquello que entienden más nos gusta.

Un modelo de ordenación que, entiendo, podemos decir se inspira en Google. Cuando nació el buscador, intentó entender bien lo que la gente quería buscar. Y con ello, dado su éxito en el uso, comenzaron a evolucionar el espacio de resultados hasta convertirlo en un bien escaso. Nacen a la par dos “industrias”:

  • SEO: el concepto “optimizar” describe la idea de saber qué parámetros considera Google importantes para una búsqueda determinada.
  • SEM: resumiendo mucho lo resumible, pagarle a Google para que te ponga preferentemente en los resultados que devuelve el propio buscador.

Que otras plataformas sociales estén convergiendo a este “modelo de publicidad de Google“, a mí, querido lector, me preocupa. Como suelo decir, las redes sociales no se usan, sino que se construyen. Si algo no me gusta, dejo de seguirlo y ya está. Si yo usase un producto “marca blanca” con estas redes sociales, entendería estas personalizaciones. Pero, no es así. En redes sociales, donde además de agrupar a usuarios, puedo tomar decisiones sobre lo que me gusta y no me gusta (sigo o no sigo), ¿por qué va un algoritmo a hacerlo por mí?

La respuesta, me parece es bastante clara: dinero y modelos de negocio. Como ya he comentado con anterioridad, estas “redes sociales comerciales” que usamos son canales de TV. Es decir, necesitan generar datos de audiencia para que luego puedan vender mejores espacios de impacto a los anunciantes. Para ello, que un usuario vea lo “más relevante“, resulta crítico. Y por ello, son movimientos tendentes a generar “escasez“. Es decir, aparecer ahí como algo “relevante”, pudiera llegar a ser algo escaso, por lo que ya la gente estaría dispuesto a pagar. Por esto mismo, el SEO y el SEM de Google, llevan años literalmente montados en el dólar.

La lógica parece sencilla e incluso poco “debatible”: con más de 400 millones de usuarios, y a sabiendas que el 70% de las entradas no son vistas por sus usuarios, Instagram busca introducir “relevancia” y “escasez”: cuanto más tiempo quieran estar en su red los usuarios (porque ahora tendrán un incentivo mayor para estar), más valor tendrá ese espacio para los anunciantes.

Pero esta es la guerra de la atención. En un mundo en el que cada hay más dispositivos electrónicos para el consumo de medios y contenidos digitales, cada vez más oferta de contenidos y plataformas, la cuestión es “estar ahí“, y llamar la atención del que busca. La escasez es la atención, y de ahí que el clickbait sea una industria en sí misma (técnicas para llamar la atención con un titular sensacionalista, que busca generar tráfico con clicks):

Fuente: http://www.thedailybeast.com/articles/2014/07/14/saving-us-from-ourselves-the-anti-clickbait-movement.html
Fuente: http://www.thedailybeast.com/articles/2014/07/14/saving-us-from-ourselves-the-anti-clickbait-movement.html

Estas “redes sociales comerciales” buscan todo tipo de técnicas para atraer más a los usuarios y buscar un mayor consumo de tiempo y contenidos. Eso, engrasará bien con su Cuenta de Resultados, y claro, su valor de mercado. Y es que esto no va de usuarios, ni únicos, ni nada parecido: va de tiempo empleado, tasas de retorno y “engagement” del usuario. Cuando hablas con una empresa, con un medio de comunicación, con un bloggero, suelen exponer su éxito con “usuarios” o “páginas vistas”. Pero eso dista mucho de ser una métrica buena y precisa. Pero tenemos algunas mejores, que ahora mismo no estamos empleando.

La atención y algoritmos, así, cobran un papel tan relevante, que serán estos últimos los que determinen para nosotros cuestione tan fundamentales y humanas como “qué nos interesa”. Ya he hablado del libro “The Black Box Society” con anterioridad. Y alerta precisamente de esto mismo. Como todavía no lo he terminado, hablaré de él próximamente.

Por todo esto, y resumiendo la idea principal, creo que la industria de la publicidad digital, como ya hablaba recientemente, va a cambiar. Creo que pasaremos a un modelo como el de la TV:

  • Un segmento de “publicidad premium”, que querrán pagar por esa atención y contenidos de calidad. Como la TV de cable. Un mercado publicitario no invasivo, adaptado al usuario y donde los adblockers no serán preocupación del usuario.
  • Un segmento de “publicidad low cost”, que querrán seguir pagando, como hasta la fecha, por clicks y tráfico, como medida más sencilla del concepto de “interés por comprar o consultar algo“. Un “modelo de publicidad Google“, donde los adblockers serán la norma.

Como ven, y volviendo a insistir en ideas previas, la era digital no ha hecho más que comenzar. Todavía seguimos analizando su evolución y especulando sobre su futuro. Esto no va de cantidad, va de calidad. Y para que mi espacio de impacto publicitario tenga un valor por el que la gente (anunciantes básicamente) quieran pagar, necesito generar esa sensación de escasez. Es algo que los periódicos todavía no terminan de dar con la tecla para ver cómo sacarle monetización, pero que, creo y espero, pronto lo hagan. La atención y algoritmos, nos lo dirán.

Por cierto, ¿podrá Google llegar a tener problemas algún día? 🙂

 

De los PCs a los móviles: ¿qué nos depara el futuro? La era de la inteligencia

Desde aquellos años 30 en los que un grupo de matemáticos y lógicos (Turing, Gödel y Church) lanzaron el campo teórico que hoy llamamos Ciencias de la Computación (Computer Science) hasta la fecha, han pasado más de 80 años. Por medio, los años 50-60, cuando nace la industria asociada, que permite llevar a más lugares que grandes laboratorios los ordenadores. Años, en los que a unos cuantos, nos ha despertado interés la informática, la hemos estudiado, y no paramos de hacernos preguntar sobre el futuro de la misma.

La “industria de la computación“, que podemos llamar para simplificar “mundo digital” ha ido desarrollándose siempre de la mano de dos ciclos: el de producto y el financiero. De este último se está hablando mucho últimamente, especialmente porque muchos creen que volvemos al año 2000 y las probabilidades de que exista una burbuja financiera están aumentando. No lo sé. Bueno, mejor dicho, no lo creo. Creo que no son las expectativas irracionales del año 2000, cuando la burbuja de las “.com”, provocó que se descubriera que apenas se creaba valor gracias en aquella época de Internet.

Yo creo que hoy sí está generando valor la constante transformación digital de las industrias. Precisamente acabo de escribir dos artículos (éste y éste) para justificar más éste artículo. Hoy quiero hablar sobre cómo se está generando valor sobre las diferentes plataformas que hoy en día están permitiendo el desarrollo de valor en productos gracias a la era digital: básicamente, Internet y los dispositivos móviles. Y lo hago porque la próxima semana viajo a Arabia Saudí precisamente para dar una serie de workshops sobre la materia a emprendedores que quieren abrazar esta era digital como una oportunidad. Especialmente desde la óptica de la educación, que es lo que hacemos desde eCampus en la Universidad de Deusto.

La respuesta sobre la posibilidad de una burbuja recae siempre en el “ciclo de producto“. Hoy en día, el “Ciclo de producto”, es decir, el producto tecnológico, se puede describir formalmente de la siguiente manera:

Producto tecnológico = Plataforma + Aplicaciones

Es decir, que la posibilidad del desarrollo de producto tecnológico (se entiende que digital, las Tecnologías de la Información y la Comunicación), depende de disponer de una infraestructura de soporte (Plataformas) sobre la que desarrollamos una serie de utilidades o Aplicaciones. A nivel de plataformas y aplicaciones, hasta la fecha, podemos decir que hemos vivido básicamente cuatro ciclos desde los años 50-60:

  1. Era centralizada: sistemas que automatizan trabajos administrativos. Apenas (o ningún) valor intelectual. Se mecanizan ciertos procesos, que se hacen más eficientes.
  2. Era del PC: cliente-servidor. Aparece el ordenador personal, ya no solo como una herramienta de ciertos procesos, sino que pasa al trabajo personal para hacerlo más productivo. Construimos aplicaciones de ofimática y otras de escritorio. Es la era que arranca el Apple II en 1977 y el IBM PC en 1981.
  3. Era de Internet: nace la interconexión entre los PC, que ha desarrollado gran parte de la economía global. Es uno de los pilares de la infraestructura actual. Empezamos a construir aplicaciones como buscadores, correo electrónico, tiendas online, redes sociales, SaaS, etc. Si bien en algunos entornos académicos o militares ya se disponía de algunas de estas cuestiones en los 80s, realmente a nivel de consumo aparece en 1993 con Mosaic, el primer navegador web gráfico.
  4. Era de los dispositivos móviles: el segundo gran pilar, y quizás el ciclo más importante ahora mismo. 2.000 millones de personas tienen al menos 1 smartphone. Y hemos desarrollado aplicaciones móviles para agilizar e intermediar en cadenas de valor como el taxi, alojamientos turísticos, etc. Si bien Blackberry y Nokia irrumpen a comienzos de los 2000, el pistoletazo de salida sin duda alguno lo provocan en 2007-08 el iPhone y Android.

La pregunta ahora recae en lo que está por venir. Es decir, dónde están las oportunidades para los emprendedores. Para ello, quizás sea interesante pararse a pensar en las tendencias hardware y software que se están produciendo, para así hacer una reflexión sobre lo que pudiera aparecer:

  • Hardware: está siendo cada vez más pequeño, barato y ubicuo. Pensemos que las CPU que tenemos ahora son “systems-on-a-chip“, en el sentido de que por 5 dólares tenemos una Raspberry Pi Zero con un procesador de 1 GhZ y 512 MB de RAM. Una locura para los que adquirimos nuestro primer ordenador (hardware) a mediados de los años 90 con características inferiores y precios totalmente desorbitados. Dos cuestiones fundamentales caracterizan al desarrollo del hardware:
    • La Ley de Moore y la industria de los semiconductores: cada vez por menos recursos, tenemos más producto (tanto en capacidad como potencia). Por lo tanto, esta tendencia hardware hace que a futuro, veamos “ordenadores” en todas las esquinas que nos rodean (paredes, autobuses, zapatillas, cunas de nuestros hijos, etc.). Es lo que se ha venido a bautizar como el Internet de las Cosas.
    • Como diría Chris AndersonEl dividendo de la paz en la guerra de los smartphone“: los componentes de los móviles, ante la guerra que se desató entre fabricantes (Apple, Google, Samsung, etc.), hace que sean más económicos que nunca: sensores, GPS, cámaras, procesadores ARM, antenas WiFi, memorias, baterías, etc. Esto, beneficia a industrias colindantes como los drones, sensorización, las fábricas (ahí tenéis la Industria 4.0), etc. etc.
  • Software: estamos viviendo ahora mismo la era dorada de la “Inteligencia Artificial“, tras el “largo invierno” que vivió en los 80 y 90. Quizás derivado de la abundante materia prima que tienen ahora los algoritmos para mejorarse a sí mismos (el “machine learning en la era del Big Data“). Tenemos varias cuestiones moviéndose a gran velocidad:
    • Sistemas distribuidos: Hadoop, Spark, y la posibilidad de paralelizar Bases de Datos y resolución de problemas.
    • Blockchain: para asegurar datos y activos. Ya hablé de ello.
    • Deep Learning: un descendiente directo de las redes neuronales. Pero que se beneficia en la actualidad de la gran cantidad de datos, el bajo precio de la computación y los nuevos algoritmos. Algoritmos de inferencia de conocimiento no conocidos hasta la fecha.
    • Open Source: democratización de las posibilidades de crear. Estamos asistiendo, por primera vez en la historia, a unas capacidades tecnológicas muy “económicas” en términos monetarios, aunque de gran exigencia intelectual. Nada es gratis. Whatsapp se crea con 50 empleadas, y presta un servicio a 1 de cada 9 ciudadanos del mundo (algo más de 900 millones de personas ahora mismo).

Lo bonito de todas estas cuestiones aparece cuando mezclas todo ello. Y es que los sistemas de Inteligencia Artificial, son mejores con una mayor cantidad de datos. El Deep Learning, mejorará en consecuencia. Y las tecnologías Open Source, seguirán desarrollándose. Todo ello, en agregado, produce el “data-network effect“: más usuarios, más datos, llevan a mejores productos, que traen más usuarios. ¿Por qué Google pagó por Waze mil millones de dólares?

Por todo ello, creo que queda todavía mucha inteligencia que aportar a elementos como los asistentes de voz, motores de búsqueda, estrategias de retargeting (una mejora de la publicidad), traductores, automóviles (Über, Tesla, Google, Ford, Daimler, etc.), drones (hardware complejo con un software simple), medicina y abogacía, escáneres e impresores 3D, etc.

Esa capa de “virtualización inteligente” que aporta la mezcla de esas tendencias de hardware y software llevará a la mejora de las prestaciones de esos elementos y áreas. O, al menos, esas es mi visión, claro. De los PCs a los móviles, para aprovechar esta “era de la inteligencia“.

La era de la inteligencia (Fuente: https://leadingedgeforum.com/asset/6508/)
La era de la inteligencia (Fuente: https://leadingedgeforum.com/asset/6508/)

Las TIC y la educación: reflexionemos y definamos estrategia y objetivos

El último informe PISA de 2015, entre otras cosas, se centraba en la relación entre los ordenadores en el aula, los estudiantes y el conocimiento adquirido. Comparaba resultados de pruebas realizadas por alumnos de 15 años de edad en los 31 países de la OCDE durante el 2012. Dado que el objetivo se centraba en las competencias digitales (cuya importancia para el futuro ya he señalado en el pasado), parte de los exámenes se hicieron sobre ordenadores para evaluar el uso de programas, la elección de recursos web en exámenes de lectura o el manejo de datos y gráficos en problemas de matemáticas.

España obtiene 466 puntos, frente a 497 de media en la OCDE. Es decir, para variar, no salimos bien posicionados en comparación al resto de países desarrollados. Ello, a pesar de estar en el top-6 de países con mayor uso de ordenador en el aula. En 2012, cuando se hizo el estudio, el 85% de los centros de secundaria tenían ordenadores de mesa y el 41%, portátiles.

Comprensión en lectura digital (Fuente: http://politica.elpais.com/politica/2015/09/14/actualidad/1442263820_176677.html)
Comprensión en lectura digital (Fuente: http://politica.elpais.com/politica/2015/09/14/actualidad/1442263820_176677.html)
El uso de ordenador en las escuelas (Fuente: http://politica.elpais.com/politica/2015/09/14/actualidad/1442263820_176677.html)
El uso de ordenador en las escuelas (Fuente: http://politica.elpais.com/politica/2015/09/14/actualidad/1442263820_176677.html)

El resultado es que los analistas concluyen, utilizando cruces y análisis de datos, que el uso del ordenador en el aula no supone una garantía ni una ventaja en sí misma. Los países que obtienen mejores resultados en los informes PISA (Finlandia, Corea o Japón, especialmente) no son los que más invierten en tecnologías. Y lo mismo podríamos decir, pero al revés.

Hace falta algo más. Y ese algo más se llama saber usar las TIC en el aula. Y se llama, pedagogía. Y he utilizado la excusa del informe PISA para sacar este debate encima de la mesa. Las tecnologías digitales facilitan el aprendizaje, pero no lo garantizan. He participado en las últimas semanas en tres foros/eventos en los que hemos estado hablando de estas cosas; y creo que seguimos sin tener muy claro este asunto. Por esta razón, he pensado que sería interesante escribir unas líneas poniendo un poco de claridad a todo este reiterativo asunto.

Para empezar: invertimos mucho en tecnología sin habernos preguntado antes cuál va a ser el uso. Es decir, hemos centrado la conversación en tecnologías y herramientas digitales, sin habernos preguntado antes qué usos queríamos darlos, sin haber hecho una planificación, y sin haber desarrollado un plan de formación del profesorado para el cumplimiento de dichos objetivos con las citadas herramientas. Mi compañero Iñaki Fuertes, director del Servicio Informático de la Universidad de Deusto, con el que tengo el placer de llevar trabajando desde hace ya más de 10 años (desde que comencé como becario), es una de las personas de las que más he aprendido en esta corta pero intensa carrera que llevo. Y él suele enfatizar mucho este asunto; las herramientas digitales es lo último en lo que tenemos que pensar. Primero, definamos objetivos; una estrategia, un plan de gobierno, una introducción de esos objetivos en los procesos y las operaciones de la organización. Y luego, ya, pensamos en qué herramienta digital es la mejor para ello. Si la herramienta no se mete en los procesos del día a día, no servirá de nada la inversión realizada. Y aquí, podemos incluir tablets, herramientas e-learning supuestamente avanzadas, asistentes virtuales, pizarras digitales, etc. etc. etc. Dejo para otro artículo hablar, de la falta de evidencias fundamentadas de muchas de estas TIC en su aportación a los procesos de enseñanza-aprendizaje.

Es más, el uso indiscriminado de las TIC puede suponer un sobreestímulo perjudicial para los alumnos. El abuso puede inducir distracción y dispersión. Tenemos muchas evidencias de todo esto. Sabemos que la multi-tarea (aspecto inexorablemente ligado al uso intensivo de muchos dispositivos y TIC) es perjudicial para la calidad del trabajo cognitivo en general, y con carácter más perjudicial aún para la naturaleza cognitiva del trabajo en aula.

Tiene también efectos negativos a largo plazo en la memoria declarativa, aquella en la que memorizamos y guardamos información para futuras decisiones. Es decir, que el tradicional efecto de “Si lo aprendes un día antes del examen, lo olvidas al día siguiente” se agudiza aún más con las TIC (no quiero ni pensar la cantidad de estímulos que tendrán hoy en día los estudiantes los días antes de un examen…). Los multitarea muy intensivos, incluso tienen problemas a largo plazo para poder decidir en qué tarea focalizarse. Pero, ¿y por qué nos gusta tanto esto de la multitarea? ¿y por qué nos resulta tan difícil hacérselo ver a los estudiantes? Pues básicamente porque tiene una gratificación emocional muy fuerte, lo que hace que los efectos perniciosos queden de lado.

Todos estos aspectos relacionados con la multitarea están agravándose por la cantidad de dispositivos que tienen a mano hoy en día: ordenadores, portátiles, tablets, teléfonos inteligentes, etc. En el top de las herramientas más “problemáticas” están las redes sociales; una actualización de Facebook es tanto en fondo como en forma distrayente. Si encima le sumamos los estímulos visuales que están incorporando poco a poco… hace que sea biológicamente imposible luchar contra ello. Nuestro sistema visual y emocional son mucho más poderosos que el inteligente; respondemos automáticamente a estímulos emocionales y visuales, anulando la capacidad inteligente de filtrar qué sí y qué no debemos atender. Cuando la gente me pregunta por qué tengo apagadas TODAS las notificaciones de TODOS los dispositivos, le suele explicar esto. Me llaman raro. Y esto me gusta.

Y el problema hoy en día es que es es difícil luchar contra todo esto; el software y el hardware está siendo diseñado y desarrollado por la industria. Una industria que vive, obviamente, de ser consumida. Y claro, si nuestro sistema visual y emocional mandan en nuestras decisiones de compra también… ¿cómo hacemos para evitar que esto guste a los estudiantes? Tarea difícil.

Yo la verdad es que cada vez estoy más atento a todo esto. He sido tradicionalmente bastante “laissez-faire” en lo que al  uso de la tecnología en el aula se refiere. Llevo años usando métodos parecidos para dar clase (muchísima participación del estudiante, Flipped Classroom, mucha práctica en el aula por lo tanto, etc. etc.), pero cada vez el nivel de distracción y de móviles en el aula era mayor. Por lo tanto, parece que la “ubicuidad tecnológica” algo tendría que decir. Y cada vez estoy más reflexivo sobre cómo gobernar y ordenar todo esto.

Hay evidencias ya de todo ello. En el paper “Laptop Multitasking Hinders Classroom Learning for Both Users and Nearby Peers” citan explícitamente:

We found that participants who multitasked on a laptop during a lecture scored lower on a test compared to those who did not multitask, and participants who were in direct view of a multitasking peer scored lower on a test compared to those who were not. The results demonstrate that multitasking on a laptop poses a significant distraction to both users and fellow students and can be detrimental to comprehension of lecture content.

En definitiva, que la “multitarea TIC” no solo afecta de manera directa al que la utiliza, sino también a los de alrededor. Difícil gestión esta para nosotros, los profesores, todo este asunto.

Un último asunto relacionado con el uso de las TIC en el aula tiene que ver con la escritura. Los expertos en neuroimagen llevan tiempo alertando que el cerebro se activa más cuando se escribe que cuando se teclea. Esta es otra de las cuestiones que yo personalmente más aplico. Cuando me ven con un cuaderno, y me dicen eso de “Con lo digital que tú eres“… Por lo tanto, si dejamos de usar la escritura, menos habilidades cognitivas de nuevo. Además, recomiendan dedicar al menos 15 minutos al día a esta práctica, puesto que estimula hasta 14 habilidades diferentes, entre ellas, la organización, la concentración, la atención, etc. Los movimientos que usamos al trazar las leras, deja una memoria motora en la parte sensoriomotora del cerebro, creando una conexión lo que se escribe y lo que se lee. De nuevo: si fomentamos SOLO el uso de las TIC para escribir, ¿nos hemos parado a pensar en todo esto? ¿qué objetivo buscamos? ¿qué estrategia tenemos?

Las tecnologías evolucionan a gran velocidad. Es conveniente también que los centros incorporen expertos que se ocupen de actualizarlas y garanticen un uso eficiente. Y es que esto de la introducción de las TIC en el aula no es un tema menor; además de distraer en exceso, podemos hacer que nuestros alumnos no desarrollen todas sus habilidades y competencias. Y encima, invertir más de la cuenta (que no estamos para eso). Lo que decía al comienzo, con esto de las TIC y la educación: reflexionemos, pensamos, definamos y luego ya, pensemos en herramientas digitales.

Atribuyendo méritos al éxito cooperativo: Shapley y los modelos de atribución en la era digital

A todos nos pasa. Ocurre algo (ganamos un partido de fútbol entre los amigos, cerramos un proyecto con el cliente trabajado entre varios, un ciclista gana la vuelta con un importante apoyo del equipo, etc.), y empiezan las conversaciones, debate y acaloradas discusiones sobre quién o qué es lo que más ha contribuido a ese éxito. La subjetividad suele imperar en estos casos. “Yo creo que Fulanito ha sido el jugador clave“; “Yo creo que las horas de trabajo de Paco fueron clave“, etc.

Estas conversaciones basadas en la percepción de valor de las partes de manera subjetiva, fue trabajado por Lloyd S. Shapley allá por los años 1950. El denominado Valor de Shapley, es un concepto que se maneja dentro del mundo de la teoría de juegos cooperativos. Un juego de esta naturaleza es aquel que se caracteriza por la participación de dos o más jugadores que no compiten, sino que trabajan para lograr el mismo objetivo, ganando o perdiendo en consecuencia de manera conjunta. Grupos de jugadores cooperan, siendo el juego la competición entre estos grupos de jugadores. Estos juegos se diferencian de los que trabajó el otro gran conocido por estudiar la teoría de juegos, el recientemente facellecido John Forbes Nash, que estudió juegos no-cooperativos como el Dilema del Prisionero.

Shapley, junto a Roth, ganaron el Premio Nobel de Economía en 2012 por su trabajo en “la teoría de las asignaciones estables y el diseño de mercado“. Shapley elaboró los modelos teóricos (que luego Roth llevó a la práctica) para situaciones donde hay grupos, en oposición y colaborando, que deben decidir para maximizar su beneficio en el contexto de preferencias coincidentes y conflictivas del resto de grupos. Lo que perseguían era la buena asignación de recursos. Y, en el contexto que nos ocupa, asignar un único reparto (entre los jugadores) del beneficio obtenido y generado por la coalición de todos los jugadores.

A diferencia de los juegos no cooperativos, donde las estrategias y beneficios de los jugadores dependen de las decisiones de los otros, en los juegos cooperativos es suficiente si se concen los pagos/valores asociados a cada posible grupo/coalición de jugadores. Parten del axioma de que la unión de jugadores crea valor, buscando criterios de reparto viables económicamente y que satisfagan ciertos criterios socialmente deseables.

Esto permitía responder a la pregunta: ¿qué importancia tiene cada jugador para la cooperación global y los objetivos compartidos, y qué premio puede razonablemente esperar cada jugador? El valor de Shapley ofrece una posible respuesta a esta pregunta. El planteamiento de la solución, pueden imaginar, no es sencillo. Vaya la expresión algebraica por delante para ser conscientes de su complejidad:

Expresión algebraica del valor de Shapley (Fuente: wikimedia.org)
Expresión algebraica del valor de Shapley (Fuente: wikimedia.org)

Si S es una coalición de jugadores, entonces v(S), el valor de la coalición S, describe la suma total que se espera de los pagos a los miembros por su cooperación. Un modelo analítico que relaciona a los jugadores (i), el valor esperado (v) por el total y cada jugador, la coalición entre jugadores (S) y el número de jugadores (n). Un ejemplo práctico de cómo construir modelos que relacionen variables para poder predecir y estimar valores (lo que hablamos a la hora de exponer el campo del Business Analytics).

Esto, como decíamos al comienzo, tiene numerosas aplicaciones. Desde el ejemplo clásico del problema del aeropuerto (división justa del coste de la pista de un aeropuerto entre los diferentes actores que necesitan pistas de diferentes longitudes -diferentes aportaciones, luego diferentes valores-), hasta la asignación de puestos de trabajo en procesos de selección o la explotación de tierras entre diferentes jugadores, pasando por  la distribución de responsabilidades dentro de un equipo de trabajo.

Todo esto lo introducía para hablar de los modelos de atribución aplicado al mundo del marketing. Dentro de la serie de Marketing Intelligence, una cosa que ha venido suscitando estos meses bastante preguntas es precisamente esto. De ahí que me disponga a explicarlo en este post.

La idea de partida de toda persona con responsabilidad en el área del marketing es optimizar la inversión y sacar el máximo jugo al presupuesto existente. Partamos, así, de las siguientes preguntas básicas:

  • ¿Tienes identificado el objetivo por el que estás haciendo inversiones en publicidad?
  • ¿Conoces el objetivo o rendimiento esperado de cada uno de los canales en los que participas?
  • ¿Sabes la influencia que tiene cada canal entre sí y la que tienen sobre el proceso de decisión de tus usuarios o visitantes?

Si tienes dudas en la respuesta de alguna de estas preguntas, este artículo quizás te interese. Un modelo de atribución es una regla o conjunto de reglas que determina cómo se asigna el valor de ventas y conversiones a los puntos de contacto de las rutas de conversión. Estudiemos la siguiente figura:

Informe del explorador del modelo. (Fuente: http://analytics.blogspot.com.es/)
Informe del explorador del modelo. (Fuente: http://analytics.blogspot.com.es/)

Los modelos probabilísticos resultantes muestran la probabilidad de que un usuario realice una conversión en un punto determinado de la ruta, dada una secuencia particular de eventos. Muchas empresas se apoyan aún hoy en modelos de atribución basados en datos poco expresivos. El primer o el el último click, por ejemplo. El valor que tiene cada Like en Facebook o un click palidece en riqueza frente al valor que se desprende de un simple pagoo de la monitorización de todo el Customer Journey. Por lo tanto, estamos hablando de elementos de seguimiento más sofisticados. Pero, los responsables de Marketing no recogen el impacto correcto de sus acciones o se pierden parte de la foto de algunos canales que también asisten a la conversión.

Dependiendo de cada industria los canales sobre los que participemos serán diferentes y tendrán de igual modo un objetivo diferente. En función del sector y del factor de negocio definido como conversión (solicitud presupuesto, compra online, etc.) la influencia de cada canal sobre el proceso de decisión del usuario será distinta. Esto se debe a que cada fuente tiene una relevancia y función particular sobre cada una de las fases del proceso del marketing de atracción: conocimiento de marca, consideración, intención y finalmente sobre la decisión de compra.

Pero, en una era en la que hay tantos impactos, la decisión de compra cada vez es más sofisticada atribuirla a una acción, conocer la relación e influencia que tienen los distintos canales entre sí, resulta fundamental para definir y optimizar nuestra estrategia de inversiones en Marketing.

Como decimos, el Customer Journey se ha vuelto muy complicado. Interaccionamos mucho con nuestros clientes, desde que simplemente se interesan, hasta que finalmente compran. Por lo tanto los modelos de atribución tradicionales (última interacción, primera interacción, modelo lineal, modelo de tiempo de decaimiento o modelo por posición), ya no son tan válidos como lo han venido siendo. Sí, claro que son útiles, pero no precisos, ni, en la era del Big Data, capaces de soportar la toma de decisión dentro de las organizaciones.

La relación con el cliente en el tiempo, desde que se interesa hasta que se compra, ahora es más complicada: muchos canales, muchos dispositivos, muchos puntos de contacto (Fuente: http://www.i-scoop.eu/wp-content/uploads/2014/04/The-new-funnel-and-buyer-journey-in-B2B-by-Forrester.gif)
La relación con el cliente en el tiempo, desde que se interesa hasta que se compra, ahora es más complicada: muchos canales, muchos dispositivos, muchos puntos de contacto (Fuente: http://www.i-scoop.eu/wp-content/uploads/2014/04/The-new-funnel-and-buyer-journey-in-B2B-by-Forrester.gif)

Definir un modelo de atribución personalizado, adaptado a nuestra situación particular, es lo que entendemos deben hacer las empresas. Tenemos dos enfoques principales:

  • Rígido:  el porcentaje del valor que se atribuye a cada canal o touchpoint varía en función de, por ejemplo, la posición que ocupa en el proceso de venta/customer journey o del tipo de canal del que se trate. Aquí es donde se ha estado atribuyendo hasta la fecha.
  • Dinámico: un algoritmo es el encargado de definir qué porcentaje del valor total se asigna a cada touchpoint. Se tienen en cuenta la agrupación de canales dentro del journey, las características del cliente o características concretas de cada canal. Por ejemplo. Si los clientes que han visitado nuestra landing page han finalmente convertido por encima de la media, nuestro sistema asignará mayor peso a ese canal en todas las ventas en las que haya intervenido. Para estos modelos dinámicos, resulta clave mirar del total de conversiones cuántas son asistidas, estudiar las rutas de conversión, etc. Y, sobre todo, hacerlo en tiempo real y modificar los parámetros del algoritmo en consecuencia. En definitiva, analítica digital y Big Data puro y duro.

Bien, ahora que me has convencido, ¿y cómo aplico esto en mi empresa? Necesitamos una herramienta para ello. Como podéis imaginar, la cantidad de datos de interacción generados es tan grande, que lo ideal es contar con una herramienta de automatización del marketing. Muchos CRM avanzados pueden ayudarnos en esta tarea pero las capacidades completas de atribución y analítica cross-channel suelen aparecer sólo en herramientas de automatización del marketing más avanzadas como Hubspot, que es la que nosotros empleamos.

Y todo esto, está teniendo enorme interés en los últimos años en muchos casos. Quizás te sientas identificado en alguno de ellos:

  • Si nuestro negocio online está arrancando, siendo pure player, ¿qué rutas de conversión son las más eficientes? Ahora que no me sobra el presupuesto, ¿dónde hacer eficiente mi inversión en marketing?
  • Atribución online to store: las líneas entre experiencias de compra online y offline se están difuminando. Los cupones de descuento o las tarjetas de fidelización, esas herramientas que tanto vmeos por España últimamente (por el crónico retraso que teníamos en términos de promociones y descuentos), están generando muchos datos. Retail, consumo, ¿a qué esperáis para apostar por un modelo de atribución serio?
  • Atribución multi-dispositivo: ¿os suena que cada vez nos pidan en más aplicaciones conectarnos con nuestro usuario? Esto es lo que hace el Measurement Protocol Data Collection de Google, por ejemplo. Como nos movemos por muchos dispositivos, por muchos canales, necesitamos estar conectados para que las marcas sepamos que somos los mismos. ¿Os suena esto?
  • Atribución multi-canal: ahora hablamos de la era de la omnicanalidad, por lo que saber qué le corresponde a cada uno de los canales que ha intervenido en la ruta de conversión resulta fundamental. ¿Cuánto ha aportado para la decisión de compra cada uno de los canales? Debemos saberlo también.

No existe un modelo bueno o malo, sino que existen tantos como contextos. Hay que elegir uno y optimizar las campañas en base a él, dándole un tiempo y re-planteando. Los modelos de atribución dinámicos han venido para quedarse. Se acabaron las discusiones de quién y qué ha influido en las ventas. Sepámoslo a ciencia cierta con el Business Analytics.