Robots y automatización de trabajo: no tan rápido (Parte II)

(Este artículo tiene una primera parte con la entrada anterior)

Decíamos en la entrada anterior, que uno de los elementos más debatidos con esta revolución industrial (la llamada cuarta revolución industrial), es la cantidad y calidad de trabajo. De la entrada anterior, decíamos al final, a modo de corolario, lo siguiente:

Los robots nos sustituyen, pero todo está por pensar y construirse sobre ellos. Preparémonos para ello. Mientras tanto, es difícil concluir si crearemos o destruiremos trabajo.

En esta entrada, hablaremos de la calidad del trabajo, que podemos representar a través de la inflación o deflación de los salarios o el aumento de las desigualdades. Para ello, nos apoyaremos en un reciente artículo también escrito por Acemoglu y Restrepo, titulado “Robots and jobs: evidence from the US” (2017). El artículo empieza diciendo que todavía no tenemos claro cuántos puestos de trabajo están realmente en peligro. Citando varios de los tan cacareados artículos (que van desde el 57% de los países OCDE que cita el Banco Mundial, hasta el 9% de Arntz, pasando por el famoso 47% de Frey y Osborne), Acemoglu y Restrepo dicen que ellos no son capaces de estimar cifra alguna en cuanto a sustitución de trabajo humano por robots: todo depende de costes y de salarios, como todo en la vida. Y ahí es donde veía interesante hablar en clave de la calidad de trabajo.

Para su estudio han empleado datos de EEUU. Y para el concepto genérico de “robot”, han empleado la definición que da de estas máquinas la Federación Internacional de Robótica (IFR), que desde 2014 los define como:

An automaticallyu controlled, reprogrammable, and multipurpose machine

Máquinas, robots, que en entornos industriales pueden soldar, ensamblar, mover materiales, empaquetar, etc. En la actualidad, la IFR calcula que hay entre 1.5 y 1.75 millones de robots industriales, una cifra que podría subir hasta entre 4 y 6 millones según la Boston Consulting Group.

Robots industriales por cada 1.000 trabajadores en EEUU y Europa de 1993 a 2007 (Fuente: http://voxeu.org/sites/default/files/image/FromMay2014/restrepofig1.png)
Robots industriales por cada 1.000 trabajadores en EEUU y Europa de 1993 a 2007 (Fuente: http://voxeu.org/sites/default/files/image/FromMay2014/restrepofig1.png)

La situación de partida para exponer resultados de Acemoglu y Restrepo es que los robots no tienen el mismo impacto en todos los sectores. De ahí que esto tenga mucha relación con el valor añadido que aporta cada uno de nosotros en nuestro puesto de trabajo. Por ejemplo habla de cómo el 39% de los robots existentes están dedicados al sector de la automoción. Un 19% a la industria electrónica, un 9% a la metálica, otro 9% a la química y plástica, etc. Y con este impacto por industria, han elaborado un mapa de zonas en EEUU, que presentan como sigue:

Exposición a robots en las zonas de EEUU (Fuente: https://docs.google.com/spreadsheets/d/10yR91cuPP3XVjZC3ouWYrHqTyZszcZO3ffwJjfI7OJc/edit)
Exposición a robots en las zonas de EEUU (Fuente: https://docs.google.com/spreadsheets/d/10yR91cuPP3XVjZC3ouWYrHqTyZszcZO3ffwJjfI7OJc/edit)

En las zonas más afectadas por la adopción robótica, el impacto en empleo y salarios ha sido importante. Cada nuevo robot por cada 1.000 trabajadores, el empleo local por ciudadano se redujo un 0,37%, mientras que los salarios cayeron un 0,73%. Sé que estoy hablando de caídas, pero, ¿tan malos números parecen éstos? Por lo tanto parece que cuanto más sensible es tu zona de trabajo a la automatización, más hacia abajo parece que van los salarios. Un total de 6,2 trabajadores perdiendo empleo por cada robot. Es todo una cuestión de sustituibilidad de lo que hacemos los humanos.

Toda esta evidencia y números sugieren que el impacto tanto en salarios como en calidad de empleo no es tampoco tan importante como parecía. De ahí lo interesante de este artículo de Acemoglu y Restrepo. Incluso estos autores sugieren pensar que una reducción de salarios y de costes de producción, podría llevar a estas empresas a ser más competitivas, y compensar la pérdida de empleo en producción, con exportaciones (incluso a otras regiones en EEUU). Por lo tanto, concluyen los autores que:

There is nothing here to support the view the new technologies will make most jobs disappear and humans largely redundant.

Todavía hay esperanza. El País publicaba recientemente un artículo que no se hacía eco de estas evidencias, pero sí citaba a los sospechosos habituales. Y también citaba el proyecto REIsearch, impulsado por el Atomium – Instituto Europeo para la Ciencia, Medios de Comunicación y Democracia. Expone básicamente el pesimismo de la población en cuanto a su futuro laboral. De hecho, solo el 10% de los encuestados se mostraba positivo ante la oportunidad que abre la digitalización para ofrecer empleo y buenos salarios para todos. ¿Tendrá algo que ver el pesimismo que habitúan en trasladar los medios de comunicación?

Los humanos siempre mantendremos (al menos de momento), el monopolio de ciertas cuestiones: la creatividad, la interacción compleja con objetos y humanos (esto es especialmente importante en un país de servicios como el nuestro), etc. Ofrezcamos evidencias, por favor, siempre que hablemos de un tema tan sensible para todos nosotros. Los robots no serán el fin del mundo.

Robots y automatización de trabajo: no tan rápido (Parte I)

Leía hace unas semanas con mucha atención una conversación que desde Wired dirigían entre el presidente Barack Obama y el director del MIT Media Lab Joi Ito. Obama manifestaba que una de sus mayores preocupaciones con la automatización de las plantas de trabajo y la inteligencia artificial era el aumento de las desigualdades. Ya el pasado diciembre, cuando todavía lo teníamos de presidente, la Casa Blanca publicó el informe “Artificial Intelligence, Automation, and the Economy“, donde además del aspecto de la desigualdad, también se citaba la necesidad de la intervención política para luchar contra el impacto desigual.

Al automatizar parte del trabajo humano, como en otras épocas, reduciría salarios (donde el valor añadido ya no era tal), y aumentaría el de las personas capaces de construir sobre ello. El señor Joi Ito, respondía que por eso él prefiere referirse a la inteligencia extendida, más que a la artificial, porque tenemos que ver estas evoluciones tecnológicas como una manera de extender la capacidad humana, nunca de sustituirla. Invitaba a pensar en cómo poder imbricar valores sociales a las máquinas.

Me acordaba de esta entrevista leyendo esta noticia, en la que el titular lo dice todo:

Chinese firm halves worker costs by hiring army of robots to sort out 200,000 packages a day

Una empresa china que veía cómo se reducía un 50% sus costes laborales adquiriendo un ejército de robots. Ahora, podía entregar un total de 200.000 paquetes al día, incrementando un 30% su eficiencia. Y encima, lo hacen con un mayor orden que el que los humanos son capaces de generar.

Empleados de STO Express ordenando envíos dentro del caos reinante (Fuente: http://fm.cnbc.com/applications/cnbc.com/resources/img/editorial/2017/04/11/104396743-GettyImages-496941098.530x298.jpg?v=1491885367)
Empleados de STO Express ordenando envíos dentro del caos reinante (Fuente: http://fm.cnbc.com/applications/cnbc.com/resources/img/editorial/2017/04/11/104396743-GettyImages-496941098.530×298.jpg?v=1491885367)

Un ejemplo más de algo que viene siendo objeto de conversación en China: los robots están quitando el elevado volumen de trabajo que la revolución del trabajo de China había traído. De hecho, el gobierno central Chino espera llegar a un total de 100.000 robots en 2020.

Estas noticias, me han llevado estas vacaciones de Semana Santa a recopilar alguna evidencia nueva sobre el impacto de la robotización y la inteligencia artificial en el empleo y su calidad. Me preocupan, como siempre, dos aspectos: el impacto real que esta robotización va a provocar (más allá de los tópicos y generalidades sencillas) en la cantidad de trabajo (es decir, si crea o destruye trabajo); y, cómo quedará la calidad del mismo (especialmente en términos de desigualdad y aumento/reducción de salarios). Voy a descomponer la entrada en dos partes: en esta primera hablaré de la cantidad de trabajo (aumento o reducción de empleo neto), y en la segunda, de la calidad del mismo.

Mokyr, Vickers y Ziebarth, en su artículo “The History of Technological Anxiety and the Future of Economic Growth: Is This Time Different?” (2015), describen las lecciones que la historia nos deja desde las revoluciones industriales de finales del siglo XVIII. Según estos autores, estas lecciones de la historia, permiten entender que esta revolución industrial en forma de tecnologías digitales (ordenadores -hardware y software combinado a diferentes escalas- y robots especialmente) permitirá crear nuevos productos y servicios que ofrecerá la posibilidad de que aparezcan un número importante de nuevas profesiones.

El debate, en este sentido es si esa creación de nuevas ocupaciones laborales será capaz de contrarrestar la que se perderá por la automatización de trabajos que actualmente desempeñan, de manera manual, los humanos. Acemoglu y Restrepo, en su artículo “The Race Between Machine and Man: Implications of Technology for Growth, Factor Shares and Employment” (2016), dicen que éste es el punto clave de esta revolución industrial. En la medida que los humanos seamos capaces de crear tareas complejas que permitan construir valor añadido sobre la robotización, no habrá reducción de puestos de trabajo.

La naturaleza de esta revolución industrial digital, es realmente disruptiva. Se han juntado muchas “fuerzas de cambio” de golpe (movilidad, redes sociales, IoT, datos, etc.), lo que hace dudar a estos autores sobre si los humanos seremos realmente capaces de construir innovaciones sobre ellas. La única ventaja es que sacar provecho de estos avances digitales necesita del buen hacer de los humanos, y no tanto de inversiones en capital. Necesitamos ideas, un monopolio todavía en manos de los humanos.

Acemoglu y Restrepo recuerdan la segunda revolución industrial, cuando apareció el ferrocarril, los barcos de vapor o las grúas en los puertos. El transporte (civil y de mercancías), globalizó el mundo, lo que hizo que fueran necesarios nuevos ingenieros e ingenieras, se profesionalizó la gestión de empresas, aparecieron nuevas necesidades de ingenieros mecánicos y civiles, etc. En la medida que seamos capaces de replicar este mismo fenómeno de creación de nuevas ocupaciones, estaremos dando respuesta a este nuevo equilibrio de puestos de trabajo que necesitamos. La duda está en ser capaces de entender la magnitud del cambio que implica esta revolución digital.

Para exponer sus ideas y alguna tendencia actual, Acemoglu y Restrepo, presentan esta gráfica:

Creación de nuevos puestos de trabajo en las últimas décadas (Fuente: http://www.voxeu.org/sites/default/files/image/FromMay2014/acemoglufig1.png)
Creación de nuevos puestos de trabajo en las últimas décadas (Fuente: http://www.voxeu.org/sites/default/files/image/FromMay2014/acemoglufig1.png)

La gráfica quizás no sea muy expresiva a primera vista, así que mejor explicarla con algo de calma. En Estados Unidos, para cada década desde 1980, se han creado más trabajo de nuevos puestos que de viejos puestos. Quizás esto es síntoma de su enorme capacidad de innovación. De 1980 a 2007, el empleo total en EEUU ha crecido un 17,5% (ay, bendita inmigración…), siendo algo más de la mitad creada por “nuevos tipos de trabajo” (que no es lo mismo que por “nuevos puestos de trabajo”). Son datos cogidos del trabajo de Lin en su artículo “Technological Adaptation, Cities, and New Work” (2011).

No parece observarse nada distinto a lo que ha pasado décadas atrás. Salvo que, esta revolución digital, genera muchos nuevos tipos de trabajo. Y, que, además, destruye con más facilidad los trabajos que son intensivos en horas de trabajo (es decir, aquellos que son “automatizables” por ser su valor añadido la inversión en horas). ¿Y qué tipos de trabajo están apareciendo y su déficit evidencias necesidades? Ingenieros, programadores, especialistas audiovisuales, analistas, arquitectos y administradores de datos, etc. Es decir, lo que ya sabíamos.

Conclusión de esta primera parte: sí, parece que se destruye empleo. Pero el equilibrio que podríamos conseguir viene, parece ser, derivado, de nuevos tipos de trabajo. Y es ahí dónde está el reto. En ser capaces de construir valor con puestos de trabajo que, siguiendo el tópico por una vez, ni siquiera quizás existan aún. Los robots nos sustituyen, pero todo está por pensar y construirse sobre ellos. Preparémonos para ello. Mientras tanto, es difícil concluir si crearemos o destruiremos trabajo.

La información veraz cuesta dinero

Sí, si ustedes quieren información veraz, deberemos financiarla entre todos. Deberemos pagarla y valorarla. Básicamente, porque desde el momento en el que la generación de información escapa de los controles de los medios de comunicación, y cualquiera puede montar un negocio para ganar dinero con noticias falsas (léase el caso de jóvenes en Macedonia), se preveen tiempos duros para la información veraz.

Y digo esto porque el otro día, en el marco de una entrevista que me hizo La Ser, salió este tema. Como sabéis, estoy últimamente muy activo con el tema (con la sección Fake News en Boulevard de Radio Euskadi, en el blog y en otras entrevistas). Quizás porque los que hemos comprado periódicos en papel desde pequeño, los que escuchamos la radio constantemente o los que vemos el telediario para cenar, somos conscientes de la importancia y el valor que tiene leer, ver o escuchar información en la que puedes confiar. En la que no tienes que activar el investigador que todos llevamos dentro para saber si lo que estoy leyendo es cierto o no.

Los medios de comunicación han sufrido y están sufriendo una transformación importante en los últimos años. Especialmente, derivado de la transformación digital de los canales de distribución de su información (quizás, de manera más acusada, por las redes sociales y la movilidad del lector). Les estaba costando rentabilizar unos contenidos que siguen siendo igual de caros. Una particularidad que tienen sectores como la generación de conocimiento/información o la educación (por citar dos a los que me dedico), es que son difícilmente industrializables: yo para dar una clase o escribir un artículo en un periódico, necesito investigar, leer, contrastar, etc. Eso, no hay robot o algoritmo que automatice. Sí, aceleran parte del proceso, pero la parte sustantiva (la creación creativa y original), sigue siendo un monopolio del humano.

Pero con la irrupción digital, ahora hay más competencia. Las barreras de entrada se han reducido, por los menores costes de distribución de la información. Hay más periodismo que nunca. Por lo que la “tarta” del anunciante hay que distribuirla entre más. Y eso obviamente hace que a una estructura de costes que es difícil de aligerar, le suponga contrarrestar a unos ingresos cada vez menores. Difícil ecuación.

Pero parece que es era de la posverdad de la que tanto hablamos últimamente, pudiera cambiar esa tendencia. Pudiera la gente haberse dado cuenta que la información veraz cuesta dinero. Mikel Segovia, en esta entrevista que me hizo en El Independiente, hablaba en clave de “La mentira, el gran negocio de las redes sociales“. Paradójicamente, este “gran negocio”, ha traído que el lector que solo quiere consumir verdad, valore más lo que tenía.

La mentira  el gran negocio de las redes sociales en tiempos de posverdad
La mentira el gran negocio de las redes sociales en tiempos de posverdad

Son datos de EEUU, pero quizás sea interesante conocerlos por aquí, para darnos cuenta también de ello: en el último trimestre (Q1 de 2017), la edición digital del New York Times ha ganado 276.000 suscriptores. En papel consiguió 25.000 nuevos clientes (¡!). Son los mejores datos de los últimos seis años. El Washington Post ha aumentado el número de nuevos suscriptores un 75% durante las elecciones americanas. También tienen datos positivos CNN, MSNBC e incluso la propia Fox. Definitivamente, si la era digital trajo crisis en el sector, quizás la “excesiva digitalización” (la era de la postverdad), ha producido una regresión a la media en el sector.

En el Congreso de Periodismo Digital de Huesca, escuché con mucha atención la entrevista que Nacho Escolar le hacía a Julia Otero. En el marco de esa conversación me gustó mucho una pequeña historia que contó Julia, que me permite elevarla a metáfora de lo que hoy estoy escribiendo. Julia hablaba sobre la importancia de pagar por la información de calidad. La generada con un método de investigación y contraste. Eso que decía anteriormente que no se puede industrializar y que cuesta dinero. Decía, literalmente:

“La investigación es cara. Si no se paga por la información, no se puede pretender que sea veraz”

Contaba la anécdota sobre cómo eldiario.es (el medio digital que dirige Nacho Escolar), para fundamentar la acusación al ex-ministro Soria sobre las vacaciones en el hotel de lujo de Punta Cana, tuvo que enviar hasta dicho hotel a un periodista. Fue el método para demostrar la veracidad de la denuncia que hacían. Y eso, obviamente, tiene un coste… que si debe hacerse para todas las noticias, es difícilmente rentable.

Y es aquí, como corolario, donde ella decía ese famoso mantra de Internet, que nos acompaña desde hace mucho tiempo, pero quizás todavía tenemos que seguir divulgándolo:

“Si no eres el cliente, eres la mercancía. Si tú no pagas, eres el producto”.

A lo que quizás podamos añadir que si acabamos todos siendo mercancía, la información veraz, pudiera irremediablemente ser un activo realmente escaso. No estoy con esto haciendo un llamamiento a la suscripción de todos los medios digitales. Que cada uno elija lo que quiera, faltaría más. Pero sí por lo menos alertar, como decía al comienzo, que la información veraz cuesta dinero. Y que debemos ser todos responsables de nuestros actos si no lo valoramos.

Next Seguros: Big Data, IoT y Coche conectado

(Artículo escrito por Javier Goikoetxea, CEO de Grupo Next)

En ocasiones no hay que salir fuera de nuestro país para encontrar empresas inspiradoras que están cubriendo una demanda de servicios que poco a poco se van abriendo paso. Me refiero a la industria aseguradora y a los modelos de seguros basados en el uso (UBI – Usage Based Insurance), donde aparece el coche conectado.

La innovación nunca ha sido la seña de identidad del mundo asegurador, pero la incipiente irrupción de empresas innovadoras con base aseguradora, también llamadas insurtech, está cambiando el modo en el que podemos observar ahora esta industria.

La propuesta de Next Seguros, por ejemplo, una empresa que está localizada en las afueras de Madrid, ofrece su propuesta de valor del seguro del automóvil sobre el planteamiento de la exposición al riesgo: cuanto más conduces, más probabilidades tienes de sufrir un accidente. Cuanto más tiempo pasas al volante, más cosas te pueden ocurrir. Así las cosas, esta compañía ofrece una solución de seguros basado en un precio que disminuye en función del kilometraje que una persona acceda a comprar. Si vas a conducir 4.000 kilómetros, vas a tener una probabilidad de sufrir un accidente sensiblemente menor al que va a conducir 40.000 kilómetros durante el mismo período. De esta manera, premian al que se expone menos al riesgo lo que ha permitido a esta compañía reducir la siniestralidad en 30 puntos con respecto a la media del mercado.

El coche conectado de Next Seguros (Fuente. https://image-store.slidesharecdn.com/1991e76a-bec6-4f22-a202-d4ef94e8923b-large.jpeg)
El coche conectado de Next Seguros (Fuente. https://image-store.slidesharecdn.com/1991e76a-bec6-4f22-a202-d4ef94e8923b-large.jpeg)

Todo esto es posible gracias a un dispositivo que, literalmente, enchufas en el vehículo y que es un “medidor”. Gracias a este tipo de innovaciones, llegamos al coche conectado, que permite el acceso remoto a un vehículo y este es capaz, a su vez, de enviar datos. El acceso remoto, por ejemplo, permitirá que dos coches se comuniquen entre sí para de evitar accidentes evaluando en tiempo real quien tiene preferencia en un cruce y, además algo que ya vemos en nuestras carreteras, el vehículo se podrá comunicar con una infraestructura, por ejemplo, para pasar un peaje. Quizá esto pueda resultar algo menos novedoso, pero si el coche puede comunicarse con un peaje, también se puede comunicar con su taller, con la gasolinera o con la ITV.

Obviamente, todo lo relacionado con la movilidad, incluso, ya es cosa del pasado ya que a día de hoy muchos automóviles incorporan sistemas de ayuda para búsqueda de rutas más eficientes para evitar atascos. Eso afectará a la red viaria, a la forma de interactuar con ella, a la seguridad vial, a la frecuencia de los accidentes, a la tipología de los mismos, a la configuración del seguro del automóvil y finalmente a la relación entre personas y al propio sistema de convivencia. Vamos a ir desmigando esta interesante información para ver si somos capaces de entender el pasado y el presente para predecir el futuro.

Después de pasar ya más de 18 años vinculado al mundo de la tecnología asociada a la movilidad del auto y al seguro, ya no tengo ninguna duda en que el vehículo es mucho más que un sistema para transportarnos. Yo creo que es casi una máquina perfecta.

Hace 35 años un vehículo debía ser asequible y con tener cuatro ruedas y un volante teníamos resuelta la necesidad. Hoy en día, marcas generalistas con vehículos de gama media tienen incorporados desarrollos que tan sólo 5 o 6 años atrás nos parecían pura ciencia ficción.

En el año 80, en España contábamos con 10 millones de vehículos y algo más de 2.000km de autopistas. Hoy contamos con más de 25 millones de autos con algo más de 16.550 kilómetros de autopistas/autovías. En esa época, los automóviles no contaban con ningún sistema de ayuda a la conducción, y hoy es imposible en un automóvil que no tenga los sistemas de seguridad pasiva estándar del mercado: ABS, ESP, tercera luz de freno, control de tracción y un largo etcétera de sensores y sistemas muy sofisticados.

En la década de los 70, los fabricantes empezaron a controlar funciones básicas del motor. Con el paso del tiempo, esa recogida de información se aceleró y en los 80 comenzaron a medirse las emisiones, y regulaciones del motor en términos de eficiencia, todo ello orientado a controlar más y mejor la evolución del motor. En el año 96 en USA y en el 2000 en la Unión Europea se universalizó el uso del puerto On Board Diagnostic (OBD) para gestionar la información de los ordenadores que lleva el vehículo. Este acceso universal a los datos del vehículo permite, al mecánico del taller o concesionario, diagnosticar la “salud” del vehículo y visualizar en un ordenador las posibles anomalías encontradas.  A día de hoy, esta diagnosis se puede realizar remotamente de manera tal que incluso se pueda obtener información del estilo de conducción y así determinar patrones de movilidad, todo ello en tiempo real. Todo esto es posible ya que hoy el acceso a la tecnología se ha comoditizado y además el coste de la trasmisión de datos e incluso de la incorporación de una SIM son céntimos de euro.

Los coches van a gestionar su propio mantenimiento y sus necesidades, casi sin que el usuario del vehículo forme parte de la ecuación. Todavía debemos revisar los neumáticos, los líquidos y el estado general del vehículo antes de un gran desplazamiento. Todo esto, en pocos años, va a pasar a la historia. En realidad, gracias a la tecnología del coche conectado y a plataformas como MYZUUM (www.myzuum.com) , ya ha pasado a la historia.

La citada plataforma de coche conectado permite verificar y diagnosticar, de manera remota y en tiempo real, más de 7.000 posibles puntos de diagnóstico del vehículo, a imagen y semejanza de lo que haría un médico con su paciente después de un exhaustivo examen sobre su salud. El vehículo se ha convertido en inteligente y él se gestiona a sí mismo. El usuario, por tanto, no participa en la ecuación más que para aceptar y pagar lo que corresponda, siempre con la máxima transparencia y el máximo rigor.

La industria de la automoción y la industria de la tecnología, cada vez están más cerca, seguramente por razón de esta última. Hace algunos años que Google se interesó por los vehículos y la conducción autónoma, no tanto por el vehículo en sí, sino por entender que de media en USA, un conductor pasa en su auto una media de 4 horas diarias y entendían que era mucho tiempo como para que una persona estuviera desconectada de la red.

¿Hasta dónde podemos llegar? Pues parece que de manera inequívoca vamos al vehículo autónomo. Vamos al vehículo que conduce sólo. Vamos a un sistema que nos permita desplazarnos mientras realizamos otra actividad o simplemente estamos disfrutando del propio viaje. Y no queda tanto tiempo para verlo en nuestras calles, son una regulación que nos haga sentirnos a todos cómodos. Ya sabemos que estas cosas se crean en EEUU, los Chinos lo suelen copiar y en Europa nos enredamos en los temas legales, pero gracias a la iniciativa, como digo, de empresas que ya están irrumpiendo en nuestro entorno, todo esto se acelere.

Si un vehículo que gestiona su movilidad de manera autónoma, se habla con otros vehículos y es capaz también de interactuar con su entorno, es muy difícil que sufra un accidente. Si vamos a tener, al menos en el centro de las ciudades, vehículos conduciendo de manera autónoma, es muy sensato pensar que los accidentes van disminuir de manera drástica y hasta podríamos pensar que tomando algún tipo de medida adicional pudieran dejar de existir. En ese caso, ¿qué haríamos con los seguros de autos tradicionales que hoy conocemos? En caso de tener un accidente, ¿de quién sería la culpa? ¿Quién sería el responsable, el desarrollador del software o quien ensambló el auto o quien lo programó para una determinada actividad? Claramente el mundo del seguro, además del mundo del automóvil es el que espera una gran transformación en esta década.

Obviamente todos los factores de la movilidad serán tratados de manera específica y los motores de Big Data y de Business Inteligence harán el resto. Todo en tiempo real. Todo a satisfacción del usuario. Todo pensado para hacernos la vida más fácil, garantizando la privacidad de todos los datos.

El análisis y los procesos de Big Data son ya el nuevo paradigma, ya que a través de la combinación de múltiples factores y datos podemos llegar a determinar, por ejemplo, cuando un vehículo necesita gasolina o cuando debe cambiar los neumáticos. Los coches podrán consumir, crear y compartir datos y ahí es donde la capacidad del Big Data tiene un gran recorrido posibilitando intuir tendencias, necesidades futuras y resolver problemas que se generen.

Y todo esto, lo tenemos en nuestro país, con empresas innovadoras que hacen de nuestro ecosistema de empresas de base tecnológica la envidia de otros países que supuestamente nos han tomado la delantera.

Amazon Books: del ON al OFF y experiencias de cliente

Que Amazon no hubiera hecho un mayor despliegue de su concepto de “Amazon físico” era algo raro. Pero las recién anunciadas nuevas tiendas “físicas” (las de toda la vida) parece que adelanten un movimiento por el gigante de Seattle de crear un nuevo paradigma y darnos todavía más trabajo si cabe pensando en la transformación digital de la sociedad y los negocios. Pasar del ON al OFF, con la misma experiencia de cliente que en el ON, parece que tiene que ser posible. Y esto no quiere hacerlo solo para el retail (como ya comentamos con Amazon Go), sino también en su buque insignia e identidad de nacimiento: la venta de libros. Aquí está con nosotros Amazon Books.

Amazon Books (Fuente: https://www.amazon.com/b?node=13270229011)
Amazon Books (Fuente: https://www.amazon.com/b?node=13270229011)

Durante 2016, Amazon abrió tiendas “Amazon Books” en su querida Portland y Seattle, así como en San Diego. Y ahora, parece lo hará en Chicago, Lynnfield (cerca de Boston), Paramus en New Jersey (a las fueras de New York) y el corazón de New York, en Manhattan (en Time Warner Center). En total tendrá ocho ya desplegadas. La noticia de estas nuevas aperturas es un hecho ya interesante, pero lo es aún más dónde comienza a entrar (Manhattan), y sobre todo, cómo está enfocando la propuesta de valor de estas tiendas físicas.

Esta omnicanalidad y presencia ON y OFF de los negocios normalmente nos había llevado a una lógica de pensar en cómo ayudar a un negocio tradicional que había estado comercializando en entornos físicos y tradicionales a un mundo digital. Pero Amazon, para variar, rompe esas lógicas, y ahora nos introduce nuevos retos: quiere que pensemos en cómo es posible replicar la experiencia de compra en Amazon.com a entornos físicos. Es más, fijaros cómo lo describe en la web:

As a physical extension of Amazon.com, Amazon Books integrates the benefits of offline and online shopping to help you find books and devices you’ll love.

Las tiendas, las “Amazon Books” son una extensión física de Amazon.com. No al revés. Son paradigmas que nunca habíamos visto (como cuando hablamos del “museo en la web, no la web del museo“). Y todo ello, obviamente, fundamentado en uno de sus principales ventajas competitivas: los datos y la inteligencia artificial. De lo que buscamos, compramos, opinamos, etc. a, conceptualizar y organizar sus tiendas físicas en torno a los libros con mejores recomendaciones, popularidad en Goodreads (una red social de lectores y libros), calificaciones de sus comisarios, etc.

Esta integración del dato heterogéneo, permitirá que todo comprador pueda tener una experiencia de compra realmente enriquecida. Cuántas veces hemos estado comprando y hemos pensado lo interesante que sería saber qué habrán opinado otros compradores de ese precio. O cómo de valorado está ese producto. Esto en un mundo online es bastante habitual. Lo raro es que se dé también en entornos presenciales. Y claro, para eso tienes que tener una base de datos como la de Amazon por detrás para hacer esto posible. Y esto es para mí lo que está detrás de este nuevo concepto de tienda: la disponibilidad de un dato muy enriquecido, con un valor que ya ven no deja de crecer.

Debajo de cada libro en las estanterías físicas, las “reviews” y calificaciones de los usuarios en Amazon.com. Obviamente, en un formato digital para que esté en tiempo real así sincronizado. Los primeros libros que ahí se despliegan, con las mejores calificaciones. Para los usuarios de Amazon Prime (que cada vez hay menos excusas para no serlo), los precios, los mismos que en Amazon.com. Se acabó la discriminación por canal (que entiende a lógicas más de resistencia que otras cosas en muchas ocasiones). Para estos mismos, si van por medio de Manhattan, y no quieren cargar con el libro que quieren adquirir, porque quieren seguir disfrutando de las preciosas avenidas de New York, muy fácil: lo seleccionas en la tienda, y que te lo lleven a casa. De nuevo, se acabó la diferenciación entre canales.

¿Que no encuentras en la tienda física lo que buscabas? Nada, saca el móvil, y la aplicación de Amazon. Con un simple escaneo o búsqueda, no solo se reciben recomendaciones, sino también ese libro que no habías encontrado ese día que fuiste a la tienda. Esto, claro, por no hablar de aquellos lectores que usen el Kindle (yo ya os dije que soy más de papel). Que lo tendrán todavía más fácil.

Integración de la experiencia de compra ON y OFF (Fuente: http://www.huffingtonpost.com/entry/amazon-books-store_us_563cf3dfe4b0b24aee4a2bb5)
Integración de la experiencia de compra ON y OFF (Fuente: http://www.huffingtonpost.com/entry/amazon-books-store_us_563cf3dfe4b0b24aee4a2bb5)

Es difícil estimar cómo lo irá a Amazon. Pero lo que sí está claro, es que de conseguirlo, se habrán acabado muchos debates. Entre ellos, muchos que giran alrededor de cómo articular una estrategia omnicanal y la integración de canales ON y OFF. Y, también, muchos de los que giran alrededor del sector de los libros y las conversaciones sobre la lectura. Si Amazon Books es capaz de crear esa línea de trabajo, solo el tiempo lo dirá. Pero que apunta bien en la omnicanalidad, no deja de ser cierto.

El Swansea ficha a un “experto Moneyball” para asesorarle en fichajes o el “Big Data” en el fútbol

Sé que es un tópico cuando la gente habla de Big Data: no recuerdo ya en cuántas presentaciones habré visto ya citada la película Moneyball. Un matemático llega a un equipo de beísbol con malos resultados y menor probabilidad de remontada, y acaba ganando. Todo, derivado de un modelo que permite detectar talento analizando multitud de parámetros que hasta la fecha no habían sido puestos en valor. Muchos hablaron así luego del “modelo Moneyball” y las opciones que podría abrir para que en muchos deportes y clubes se detectaran talentos de la misma manera.

Me acordaba de esta historia al leer que el Swansea, equipo de la Premier, ha fichado a un “experto Moneyball” para que les asesore en fichajes. El experto en cuestión es Dan Altman, el fundador de la consultora North Yard Analytics, y experto en cuanto al análisis cuantitativo del rendimiento de equipos y futbolistas. Ha trabajado y trabaja para varios equipos de la Premier y la Champions.

¿Por qué os estoy hablando de esta noticia? Básicamente porque creo que este tipo de “fichajes cuantitativos” será la norma en poco tiempo. Este tipo de análisis de datos, que más que sustituir complementan la toma de decisiones humanas, permiten mejorar y afinar mejor cuando tenemos que procesar muchos datos para obtener alguna conclusión. En España, quizás el caso más conocido es el de Monchi en el Sevilla. Esta imagen que os adjunto a continuación es un post suyo en Instagram de hace unos días:

A diferencia de otros deportes, en el fútbol, el rendimiento de un jugador no solo depende de él o ella mismo, sino que también del resto de jugadores sobre el cesped. Esto hace que los modelos de análisis de datos sean más sofisticados que en otros deportes. Y en una era en la que la disponibilidad de datos en el fútbol ya no es el problema, el reto está en entender las posibilidades que el Big Data añade. Por lo tanto, que aparecen más “expertos Moneyball” es solo cuestión de tiempo.

A colación de todo esto, me voy a permitir recomendarles un libro para aquel que, si ha llegado a esta altura del artículo, entiendo, le guste todo esto. Me estoy leyendo ahora el libro “Scorecasting: The Hidden Influences Behind How Sports are Played and Games are Won“, escrito por Tobias Moskowitz, profesor de la Universidad de Chicago, y por Jon Wertheim, escritor en Sport Illustrated. Entre las muchas cosas realmente interesantes que desgranan, se encuentran la cantidad de sesgos cognitivos que tienen los interesados en deportes (entrenadores, gestores, directivos, comentaristas, los propios deportistas, etc.).

No es la primera vez que un libro o artículo académico habla de esto. Insisto, a los que esto les guste, no puedo más que recomendarles lecturas para que puedan entender el valor que tiene este análisis de datos para sobreponerse a todos estos límites que la mente humana de los fans tiene. Lecturas como “The hot hand in basketball“, de los psicólogos Tom Gilovich, Amos Tversky y Robert Vallone (donde se ve cómo la probabilidad de acertar un tiro de un jugador de basket es independiente de los tiros anteriores… de ahí lo de “hot hand”); “Predicting outcomes: Sports and stocks” de Gordon Wood (que encontró resultados parecidos para la probabilidad de un equipo de ganar o perder en función de resultados anteriores); “Do Firms Maximize? Evidence from Professional Football” del economista (con un modelo matemático para calcular probabilidades de anotar en función de la posición y otras circunstancias).

Todo esto, hasta la fecha, ha estado muy encerrado en nuestro querido mundo académico. Pero como ya me habréis leído en multitud de ocasiones, necesitamos entendernos más y conversar. Transferir conocimiento, que tanto se dice, pero no tanto se produce. Pero esto no será fácil; como decía antes, el mundo del deporte está rodeado de muchos sesgos cognitivos. Concretamente tres, que son los más difíciles de superar, dado que son tres que ayudan a confirmar nuestras intuiciones y anular las contradicciones. La fatiga mental que nos supone abstraer y reflexionar (lo que nos separa de los primates), y pensar, hace que tengamos que atajar sacando conclusiones. Estas tres son: sesgo de confirmación, razonamiento motivado y la falacia narrativa.

El sesgo de confirmación se da cuando leemos y vemos solo aquello que confirma nuestras intuiciones. Nos confirma lo que pensamos, y eso nos gusta. El fanatismo alrededor del deporte hace que solo nos nutramos de información que confirma lo que venimos pensando. ¿Y si estamos equivocados? En segundo lugar, el razonamiento motivado, se da cuando creemos en lo que queremos creer y no en lo que es más evidente. Es decir, atacamos al rival, pese a ser el mejor. Esto lo podemos ver continuamente cuando los compañeros de Messi y Cristiano Ronaldo hablan maravillas de su compañero, y atacan al rival (por mucho que los dos sean soberbios). Y, en tercer y último lugar, la falacia narrativa que bautizó Nassim Taleb. Básicamente se da porque a los humanos nos encanta relacionar cosas, construir historias en nuestro cerebro, por lo que a veces relacionamos cosas que no tienen nada que ver. Daniel Kahneman, el único psicólogo en haber obtenido un Premio Nobel de Economía, lo denomina la falacia de la conjunción. Si nuestro equipo gana dos sábados por la noche seguidos, los aficionados y comentaristas enseguida concluyen que jugar los sábados por la noche ayuda a su equipo a ganar. O la hamburguesa que ayudó a Fernando Torres a recuperar sus goles.

La hamburguesa que, según la COPE, ayudó a Torres a recuperar sus goles (Fuente: Twitter)
La hamburguesa que, según la COPE, ayudó a Torres a recuperar sus goles (Fuente: Twitter)

Por estos problemas que nuestra mente humana tiene, necesitamos más noticias como éstas en el mundo del deporte. Los comentaristas, entrenadores y gestores, sino, seguirán construyendo sus propias historias con poca alimentación informativa exógena. Por un mundo del deporte más cuantitativo. El “Big Data” (entiéndase), debe llegar, para no salir nunca más. Y no, no sustituye a humanos, sino que complementa a los humanos, nos mejora y permite aprender y ayudar más al desarrollo de las sociedades. Queremos más “expertos Moneyball” en nuestras vidas, y en el deporte en particular.

Internet y la verdad: un periodo de transición y cambios

Conviene de vez en cuando parar a entender la arquitectura y forma de expresión de esta era digital. Especialmente, para entender bien cómo ha afectado al origen de donde venimos. Me refiero a entender las diferencias entre la imprenta de Gutenberg, que durante 500 años nos ha permitido que la información que uno quería leer se tuviera que editar, imprimir y distribuir. Esto, introducía una pausa y detenimiento en la forma de elaborar información y conocimiento, que hacía que la gente confiara en esas noticias.

Esto me parece especialmente ilustrativo en esta era de las redes sociales en las que la información viaja a la velocidad de la luz. Dado que venimos de donde venimos, la gente en Internet sigue confiando en lo que lee. Y esto es lo que pasa, que ahora estamos en pleno debate sobre lo que circula por Internet: qué es veraz y qué no, qué es un rumor y qué un hecho, etc. Esto, es inherente a la arquitectura abierta con la que nació Internet. Cualquiera podría producir información y conocimiento, pudiendo así introducir ruido en un lector que, ya digo, confiaba siempre en lo que leía.

Y es que no todo es escalable e industrializable. La producción de información y conocimiento verdadera, por ejemplo. Sin embargo sí es escalable e industrializable a la velocidad de la luz la distribución de esa información y conocimiento. Y esta es la reflexión que creo debiéramos hacer en una época en la que los bulos, rumores y falsas noticias, con titulares que invitan a que así sea (que entienden bien cómo funciona Internet), es nuestro día a día.

Aquí la pregunta que uno se hace siempre es el “por qué” de las cosas. ¿Por qué nos creemos algo como cierto simplemente por que lo vemos en nuestros amigos en redes sociales? Danielle Citron, lo explica de la siguiente manera:

“[…] People forward on what others think, even if the information is false, misleading or incomplete, because they think they have learned something valuable.”

Es decir, nos gusta hacer de periodistas. Nos gusta pensar que tenemos alguna información de valor. Y esto, cuando pasaba en el mundo físico (que también pasaba claro, como fenómeno humano que es, no digital), generaba problemas, pero no tantos como ahora. El efecto viral de ahora, multiplica este problema de manera imparable. Así, inventarse un hecho, y que eso se lo crea bastante gente en poco tiempo, no es tan difícil como uno pensaba. Básicamente, porque la distribución de información es muy barata y rápida, a pesar de que la producción de información y conocimiento no es rápida ni barata. Y esta es la frase que creo resume muchos de los problemas que tenemos hoy en día en Internet.

Por eso, los cambios en el algoritmo de Facebook son tan peligrosos. Que no nos expongamos a la heterogeneidad de las noticias de otras fuentes, puede provocar que este efecto de distribuir mentiras falsas sea aún más perjudicial. Ya comentamos esto era un sesgo con el que nuestro cerebro se siente especialmente cómodo. En 2011, Eli Pariser, el co-fundador de Upworthy, creó el término “burbuja de los filtros“. Se refería a cómo las funciones de búsqueda personalizadas (te ofrezco los resultados que más te van a gustar), deja en manos unos algoritmos de caja negra un peligro informativo tan grande.

Así, debiéramos preocuparnos porque las redes sociales reflejen la heterogeneidad informativa que pudiera permitir separar el grano de la paja. Y que la popularidad en la difusión de algo, no sea la métrica que permita modelizar el “interés por algo”. Debiera ser la verdad, la veracidad de una noticia, de una información, la que prevaleciera. Pero es que esa “burbuja de los filtros” de la que habló Pariser, hoy en día no solo no ha mejorado, sino que es que encima ha empeorado.

Miren esto, sobre el #brexit:

Tom Steinberg, un activista de Internet y fundador de mySociety (que proveen herramientas tecnológicas para el cambio y progreso de las sociedades), alertaba de los riesgos sobre que la difusión de información y conocimiento de nuestros días fluyera principalmente en redes sociales que tienen esos algoritmos de ordenación de información de “caja negra”. No saben priorizar la verdad. La última frase es bastante descriptiva: “La mitad de la población no sabe lo que dice la otra mitad“.

Pero es que las redes sociales, con su valor bursátil, viven de esto. De que reciban la información que quieren, que esperan, que les refuerza positivamente sus ideas. De esta manera, entrarán más, y así serán impactados más por publicidad, que aumenta el valor de esas empresas. Por lo tanto, no tienen incentivo alguno a cambiar esta manera de “trasladar la supuesta verdad”.

Y el problema es que las redes sociales, especialmente Facebook, no solo ha adquirido el monopolio de las noticias, también de las campañas políticas, la retransmisión de eventos, historias de personas, promoción del ocio, campañas de marketing, etc. Es decir, es la TV de este Siglo XXI, y por eso, ha ganado tal poder, que debemos empezar a solicitar el escrutinio de esa difusión y producción de la verdad de la que tantas otras veces he hablado.

Si todo esto no fuera así, el cambio del algoritmo de Facebook no sería noticia. Y que Instagram y Twitter empiecen a ordenar por supuesta “relevancia”, tampoco. Pero sí, sí es noticia. Ellos ahora tienen sus líneas editoriales en manos de unos algoritmos de caja negra que deciden, por unas métricas basadas en supuestas verdades, lo que nos interesa. Y esto, bajo mi punto de vista, es muy peligroso. Y debiera hacernos reflexionar.

Necesitamos tener este debate para saber cómo poder hacer frente a las noticias y contenidos que no son ciertos. Ya no hablo solo de responsabilidad, honestidad y ética. Hablo de algo más. El problema es que no sé el qué. Pero lo que no me parece de recibido es que cualquier noticia “fake” (falsa) que quieran imaginar, por escandalosa que sea, siempre tenga algún reflejo en Internet. Hagan la prueba en Google. Internet y la verdad, será un debate que nos acompañe durante mucho tiempo. La veracidad, uno de nuestros mayores retos.

Sobre el triunfo de Trump y el marketing político

Sobre el triunfo de Donald Trump en las pasadas elecciones americanas se ha escrito mucho. Yo mismo escribí una breve reseña para hablar sobre los algoritmos que habían anticipado que esto podría ocurrir. Obviamente, no vengo hoy a hacer un análisis político del triunfo. Vengo a hablar de la estrategia de marketing político que puso en marcha, y que, a posteriori, resulta fácil intuir le ha salido bastante bien. Empecemos.

Nadie confiaba en la victoria de Trump. Hillary Clinton estuvo por delante en intención de voto. Acuérdense de la época de los insultos, desprecio humano, faltas de respeto continuadas, etc., de Donald Trump. Sin embargo, sí que siempre hubo voces que alertaban del error de la estrategia de Clinton. Eso de no priorizar en grupos demográficos clave, le podría salir caro. Colectivos como los jóvenes, negros a hispanos, en los que Trump, sí estaba fijando sus mensajes.

Es verdad que muchos votantes querían cambio. Esto de rechazar lo malo conocido y decantarse por lo malo por conocer parece que se ha cumplido. Esta primera gráfica que adjunto a continuación viene un poco a refrendar todo esto. Un votante que quería cambio, quería asumir riesgos, y que además, no entraba de lleno en la estrategia de Clinton. Parece que el mix estaba servido. Algunas microsegmentaciones, sub-colectivos, parece que eran más atractivos para poder trazar la estrategia de Trump. Es la segunda gráfica que adjunto a continuación.

Soluciones rápidas, aunque arriesgadas: el votante de Trump (Fuente: Pew Research Center)
Soluciones rápidas, aunque arriesgadas: el votante de Trump (Fuente: Pew Research Center)
Margen por el que se decidió cada grupo desde 1976 (Fuente: Eduardo Suárez)
Margen por el que se decidió cada grupo desde 1976 (Fuente: Eduardo Suárez)

Un electorado más joven, mejor educado y con menor porcentaje blanco que en elecciones anteriores, se entrega a Donald Trump. Algo debe esconsder estas elecciones para que esto haya podido ocurrir. Esto es lo que han venido a analizar algunas casas de análisis una vez celebradas las elecciones, que siempre es más fácil obtener conclusiones. Varios parecen haber sido los motivos de este éxito que, no me negarán, ustedes tampoco se esperaban: el foco en los temas clave (Right Message), saber dónde y cómo decir las cosas (Right Channel), saber dónde estaban los problemas del colectivo pro-demócrata (Right Person) y saber cuándo decir las cosas (Right Moment).

Como ven, entre paréntesis he ido añadiendo diferentes elementos que, de manera conjunta, conforman un proyecto de marketing político en toda regla: Right Message + Right Channel + Right Person + Right Moment = Marketing político eficiente. Es decir, saber cuándo y dónde decir qué, para optimizar al máximo la inversión, y  conseguir un retorno sobre dicha inversión más alta que la del rival. Veamos ahora de manera un poco más desarrollada cada uno de estos elementos.

En cuanto a Right Message. Trump tocó pocos temas. Bastante menos que Hillary Clinton. Pero es que tocó los temas más claves para su electorado. Es decir, en aquellos temas que importan. Esto, hoy en día, en la era de los datos masivos o Big Data, ya no es una excusa para cualquier estrategia de marketing político. Se puede llegar a saber qué es lo que más importa, a nivel segmentado geográfico. Tres son los temas sobre los que se destacó Donald Trump: aspectos económicos (además, para un empresario como él, pese a que tiene menos riqueza hoy en día que la que heredó de su padre -tan buen empresario parece que no es entonces-), la seguridad de los ciudadanos (en una era en la que el terrorismo está empezando a azotar mucho en occidente) y la reforma sanitaria de Obama (donde su electorado se muestra especialmente en contra).

Por otro lado, Right Channel. La gráfica que adjunto a continuación muestra cómo y cuánto el republicano confía en los medios de comunicación tradicionales. Que Trump los haya atacado hasta la saciedad, no hace más que denotar que desde una óptica eminentemente utilitarista, parece bastante inteligente haber focalizado esfuerzos ahí.

Confianza en los medios de comunicación tradicionales (Fuente: http://mehlmancastagnetti.com/wp-content/uploads/2016-Mehlman-Election-Analysis.pdf)
Confianza en los medios de comunicación tradicionales (Fuente: http://mehlmancastagnetti.com/wp-content/uploads/2016-Mehlman-Election-Analysis.pdf)

En siguiente lugar, Right Person. La “gran coalición” demócrata que creó Obama, parece que con Clinton se ha roto. El apoyo que ha conseguido Clinton’16 es bastante menor que el de Obama’12 en varios de los colectivos clave: hispanos (-8%), mujeres solteras (-7%), asiáticos y americanos -no EEUU- (-11%), millenials (-5%) y afroamericanos (-7%). Esto Trump lo supo a tiempo, y comenzó a dirigir esfuerzos también a estas partes de las otrora votantes demócratas. Y es que uno, no solo debe conocer sus fortalezas, sino también las debilidades del rival. De nuevo, de manera absolutamente utilitarista, brillante movimiento el de Trump.

Por último, Right Moment. Varios fueron los momentos débiles que tuvo Clinton en la campaña: la investigación del FBI, las donaciones a la fundación Clinton, el caso de los emails de Clinton, el tema de Benghazi, etc. Hasta un 61% llegó a opinar que Hillary no era una candidata honesta y en la que se pudiera confiar. Fueron momentos en los que Trump atacaba. Momentos delicados del rival, en el que si tú construyes unos buenos mensajes a través de los canales adecuados y a los colectivos más propensos a cambiar su voto, puedes ganar mucho terreno. Que fue lo que Trump hizo con bastante practicidad.

Como ven, ganar elecciones no es sencillo. Y menos en un país con tanta tecnología y análisis como es EEUU. ¿Podemos aprender mucho por estas latitudes? Desde luego. Obviamente no de Trump, pero sí de alguna de las herramientas de análisis empleadas por el futuro presidente de los Estados Unidos.

Los políticos son de palabra (según los datos)

Una de las grandes preguntas que me he hecho en multitud de ocasiones versa sobre el grado de cumplimiento de las promesas electorales de nuestros representantes políticos. Sí, en serio, siempre he tenido dudas de si tan cierto es el manta propular de “que no cumplen nada de lo que dicen“. Por otro lado, acabo de ver en televisión, que mañana, 4 de Diciembre de 2016, el programa de la Sexta “El Objetivo”, lleva como título “¿Por qué mentimos los seres humanos? ¿Mienten más los políticos que el resto?“. Aquí tienen ustedes los detalles.

Desconozco el contenido del programa de mañana. Pero, dado que es un tema que me gusta, y que mañana será conversación, he creído buen momento para publicar algo en este línea. Además, he estado investigando sobre el tema últimamente para una charla que tengo que dar de marketing político y gestión política basada en evidencias.

Empiezo con este paper de Joaquín Artés, de la Universidad Complutense de Madrid. Señalo lo que más me ha llamado la atención:

Los partidos políticos en España cumplen sus promesas (Fuente: Do Spanish politicians keep their promises?)
Los partidos políticos en España cumplen sus promesas (Fuente: Do Spanish politicians keep their promises?)

Sé que voy contracorriente. No es normal destacar esto. Pero es que así son los datos de caprichosos. Como bien señala el experto en la materia Joaquín Artés (yo no lo soy), en los ciclos electorales que hay en España de 1989 a 2004 (por lo tanto, un periodo bastante prolongado), las promesas electorales son satisfechas por los partidos políticos. De media, han puesto en práctica -en diferentes grados, claro- un 70% de sus promesas electorales. Tanto PSOE y PP cumplen sus promesas tanto con mayoría absoluta como cuando lo hacen en minoría (buscando los apoyos necesarios para cumplir sus mandatos electorales).

Sé que alguno me dirá que un 70% no es suficiente. Que quiere el 100%. Ya, pero es que a veces no todas las decisiones están en nuestras manos. Y las promesas, en política, no siempre alcanzables. Los ciclos económicos no son siempre previsibles, las instituciones cambian, jugamos en un mundo cada vez más interconectado donde lo que pasa en la otra punta del mundo puede afectarnos, etc. Por lo tanto, atribuir toda la responsabilidad a su falta a la verdad, no creo que sea del todo justo.

Y diréis, pues que no hagan las promesas. Ya, pero es que una promesa también forma parte de la “voluntad” de una persona. En este caso, de un partido político también. Y a mí saber la voluntad de los partidos por hacer las cosas, también me sirven. Porque soy consciente, como decía en el párrafo anterior, de la dificultad que entraña la gestión política de este mundo global, competitivo y conectado.

Qué es una "promesa" para la RAE (Fuente: rae.es)
Qué es una “promesa” para la RAE (Fuente: rae.es)

Quizás el mantra popular se alimente siempre mucho por los “grandes titulares”. Porque, claro, es cierto, algunas cosas no alcanzan. Y suelen ser aquellas que “más ruido generan” (quizás también tenga mucha relación con que son las más complicadas y las que dependen de muchos más factores). Y, por otro lado, seguramente también sea cuestión de un hartazgo generalizado con muchas de las cuestiones que la sociedad está demandando, y que los políticos no están alcanzando. Por lo tanto, en segundo lugar, creo que además se produce también un fenómeno de “no representación de las principales inquietudes“.

Este porcentaje de cumplimiento de promesas parece que también cruza el charco. Me he topado por el siempre interesante fivethirtyeight, con este artículo y con la siguiente gráfica:

Presidentes americanos cumpliendo sus promesas (Fuente: FiveThirtyEight)
Presidentes americanos cumpliendo sus promesas (Fuente: FiveThirtyEight)

Según Rasmussen, solo un 4% del electorado cree que los políticos cumplen sus promesas. Un 83% cree que no las cumplen. Esta impresión generalizada, ya ven que choca bastante con los datos disponibles y las investigaciones realizadas. La gráfica sobre estas líneas es una media extraída de diferentes estudios empíricos, por lo que podemos considerarla como bastante relevante. Pero esta media alrededor del 70%, como decíamos antes, no solo se exhibe en EEUU, sino también en otros países. Reino Unido, con un 82,5%, es el líder. Los Países Bajos, ese país tantas veces citado como ejemplo, cumple un 61%. Menos que España.

Para ir terminando, en este otro artículo, también muy completo, vuelven a sacar ese 67% de cumplimiento de las promesas a nivel mundial. Con diferentes regímenes políticos. Con diferentes partidos políticos. En diferentes latitudes del mundo. aquí tienen un breve extracto resaltado:

Los partidos políticos cumplen sus promesas
Los partidos políticos cumplen sus promesas

Quizás a veces debamos consultar más los datos para extraer nuestras propias conclusiones. Ojalá mañana el programa de “El Objetivo” ponga énfasis en todo ello. Los políticos, cumplen más promesas de las que pensamos.

Visualizando mis emails y la colaboración en esta era digital

De los trabajos del MIT Media Lab ya he hablado en alguna ocasión. Un centro que se dedica a transformar datos en historias. He vuelto a acabar consultando sus últimos trabajos a raíz de este post en el que se analizaban los ya famosos correos de Hillary Clinton revelados por Wikileaks. Los autores han desarrollado una herramienta denominada Immersion, en la que te permiten (sí, a ti también, estimado lector), visualizar y entender la red de personas con la que interactuamos por email.

Mi grafo lo podéis ver aquí y a continuación. Como se puede apreciar, tenemos unos nodos (los círculos, que representan a personas con las que intercambio correos) y enlaces con esas personas (que representa el intercambio de correos). El tamaño del nodo muestra el número de hilos de correo intercambiados con las personas. El tamaño del enlace muestra el número de hilos de mensajes compartidos con esa persona, pese a no ser intercambios directos con esa persona.

Cada nodo (persona con la que intercambiamos correo), es algorítmicamente asignado a una comunidad, que para Immersion son conformadas a partir de un desproporcionado número de mensajes cruzados (que es cuando entiende se ha formado una comunidad de intercambio de mensajes). En mi caso, ya veis que salen varias comunidades (los diferentes colores de agrupación).

Y ahora muchos de ustedes dirán: ah, “muy interesante“, pero, “¿para qué narices sirve esto?” En el caso de los emails de Hillary Clinton, ha quedado bastante claro que lo que muchos la achacan estos días es cierto (estando en un cargo de alta seguridad no deberías usar como canal de comunicación uno no autorizado). Por otro lado, también vuelve a quedar claro el poder que tiene la expresión de conocimiento y contenidos a través de redes sociales. El posterior análisis que se puede realizar a través de la teoría de grafos expone un mecanismo del cual se podría extraer mucha inteligencia.

Pero más importante e interesante aún me parece la posibilidad de visualizar el grafo para darse uno cuenta de lo que es la colaboración en esta era digital. La herramienta Immersion también ofrece un módulo de visualización de estadísticas. Por motivos de privacidad, entenderán que no voy a ponerla aquí. No hay ningún secreto, simplemente sale el número de emails enviados, a quiénes en mayor medida, etc. (básicamente por los terceros es por los que no incluyo aquí la información). Me recordaba, viendo mi historial de Gmail es que la colaboración en esta era digital se ha ido acelerando de manera muy veloz. Y es que Immersion permite visualizar por periodos de tiempo el grafo. Lo he seleccionado para mi cuenta personal, que dejé de utilizar en gran medida allá por finales de 2010, cuando en la universidad, nos incorporaron Gmail como herramienta de gestión del correo electrónico.

Evolución temporal del uso de mi cuenta personal de Gmail (Fuente: immersion.media.mit.edu)
Evolución temporal del uso de mi cuenta personal de Gmail (Fuente: immersion.media.mit.edu)

Y lo he vuelto a comprobar para la cuenta de la universidad (ahora mismo, la única que uso de manera intensiva), y ocurre lo mismo. Cada vez estamos más conectados. Cada vez intercambiamos mayor volumen de correo. Esta era digital que ha reducido las barreras y los cotes de la comunicación, ha traído que la colaboración, al menos expresada a través del intercambio de correos, sea bastante mayor.

Y haciendo ese mini-experimento, me acordaba de este artículo de la Harvard Business Review. Tenía pendiente escribir algo sobre él desde que lo leí hace cosa de un año. Solo ya la cabecera del artículo deja un titular bastante claro: según la investigación llevada a cabo por la HBR, el tiempo empleado por empleados y directivos en actividades de colaboración se ha incrementado en más de un 50%.

Collaboration overload (Fuente: HBR)
Collaboration overload (Fuente: HBR)

Según los datos que podréis encontrar en el artículo, el tiempo que muchos empleados dedican a actividades de colaboración (reuniones, llamadas de teléfono, responder emails, etc.) está cerca del 80%. Está bien este discurso de la “colaboración”, pero a mí me parece una cifra realmente alta. Y preocupante. Y en la que me siento reflejada. Ya de un tiempo a esta parte vengo pensando en ello. Razón por la cual en cuanto he visto una herramienta para ponerlo en evidencia, lo he probado. Hay días que echo mucho de menos actividades solitarias: investigar, leer, preparar clases, escribir unas reflexiones, etc.

El problema de estos esquemas de colaboración es que parece que las relaciones suelen ser asimétricas. Un tercio del valor creado en la colaboración, viene de entre un 3 y 5% de los empleados. Las burbujas que veis que salen en la parte superior y escorados a la derecha, son los que en las organizaciones se ven como fuentes principales de información y son los más demandados para la colaboración. El tamaño de esos nodos, como veis, es el menor. ¿Por qué? Porque también son los menos satisfechos en su carrera. Se desgastan de tanta demanda temporal de la colaboración.

Efectividad en la colaboración y demanda personal (Fuente: HBR)
Efectividad en la colaboración y demanda personal (Fuente: HBR)

Y esto sí es un gran problema para cualquier organización. Perder a recursos con mucho conocimiento y fomento de la colaboración en la organización es un problema. No solo ya por los conocimientos, sino también por las dinámicas de colaboración que tanto gustan en las organizaciones internacionales que deben tejer redes para la creación de valor.

¿Qué hacer? Difícil poner medidas. Pero lo que está claro es que debemos empezar a hacer más análisis en las organizaciones de estas cuestiones. Como en el fútbol; no solo medimos los goles, también las asistencias. Que las organizaciones empezáramos a premiar a los más colaboradores, y sobre todo, a evitar que se saturen, vendría realmente bien. Análisis de redes, programas de reconocimiento de pares o métricas del rendimiento de valor añadido por la colaboración, debieran ser la norma en muchas organizaciones.

La colaboración es magnífica, sí, pero hasta un punto. Esta era digital de bajos costes de comunicación debe ser medida.