Confundiendo estrategia (digital) con tecnologías y herramientas

Cuando hablamos de transformación digital, una de las cuestiones que siempre enfatizo es la falta de aprovechamiento de la digitalización. Es decir, emplear los datos y la información digital, así como las redes que permiten comunicar y distribuirlos, en favor de la innovación de las organizaciones y las empresas. Esto ahora mismo es un pozo muy rico de oportunidades que no son aprovechadas.

Entre los muchos motivos que a uno le puede venir a la cabeza voy a quedarme con uno: confundimos con mucha facilidad estrategia (digital en este caso) con lo que son las tecnologías y herramientas. Y esto, lo dice un ingeniero, que como tal, y a sabiendas que nuestra formación se basa en ciencia, tecnología y herramientas (especialmente la mía, la informática), siempre tendremos ese sesgo. Pero esta falta de enfoque y claridad, termina que uno tenga que escuchar que “Implantando un CRM va a resolver los problemas de coordinación de sus equipos comerciales” o que “Implantando una red social interna va a ayudar a que sus equipos se comuniquen de manera más eficiente“.

No, perdón. Es que los problemas de personas, gestión del cambio y organización es otra cosa. Y ese otro elemento se llama estrategia, que es la gran olvidada en toda esta era digital. Y de eso os quería hablar hoy. De estrategia a secas, que luego llevaré al mundo digital. El término estrategia tiene un origen griego: EstrategeiaEstrategos o el arte del general en la guerra, que procede de la fusión de dos palabras: stratos (ejército) y agein (conducir, guiar). Hoy en día, usamos y definimos estrategia como el arte para dirigir las operaciones y el futuro de una organización. Supone una guía para lograr un máximo de efectividad en la administración de todos los recursos en el cumplimento de la misión.

La estrategia (el “cómo” de la empresa), que a mí tanto me gusta definir a través del ajedrez (una de mis pasiones, recordaréis).

El ajedrez, como símil del concepto estrategia (Fuente: http://3.bp.blogspot.com/-AmKHCNdHszI/VSe7jQ4t0KI/AAAAAAAAYFE/e46f0DrY3Go/s1600/ajedrez.jpg)
El ajedrez, como símil del concepto estrategia (Fuente: http://3.bp.blogspot.com/-AmKHCNdHszI/VSe7jQ4t0KI/AAAAAAAAYFE/e46f0DrY3Go/s1600/ajedrez.jpg)

En el ajedrez, es necesario que dispongamos, como jugadores, de un modelo de decisiones coherente e integral. Es decir, tenemos que jugar con nuestras piezas, y a través de un proceso, interactuar con otros para alcanzar, a largo plazo (no en “batallas uno a uno”), una ventaja competitiva sostenible. Un modelo de decisiones que si lo vamos cambiando, no suele traer unos buenos resultados. Por eso en el mundo de la empresa, seas o uno una persona con responsabilidad, es bueno acompañar tu día a día de una estrategia.

Si en vuestra empresa, en vuestra organización, o para vosotros mismos, os preguntáis cuál es el modelo de decisiones en el plano digital, quizás es que no exista. Y esto, por raro que parezca, suele ocurrir. No existe un modelo coherente e integral de selección de herramientas. Y cuando esto ocurre, puede deberse a dos cosas: o bien no se entiende que las herramientas y tecnologías solo es el después (una vez tengo la estrategia y los procesos definidos) o bien que la estrategia y los procesos tampoco están definidos. Quiero creer que esto último no se da, y que es lo primero el motivo principal.

Esto es precisamente lo que creo que falta mucho cuando hablamos de sacar provecho a la constante digitalización de la sociedad. Es decir, incorporar al proceso de estrategia de toda empresa esas nuevas posibilidades que abre la última revolución registrada, la digital. Es por ello, que quizás es que estemos enfocando mal el problema. Quizás es que los puestos como CDO (Chief Digital Officer), son personas que deban estar en los Consejos de Administración. O que incluso el día de mañana tengan que ser los que sean primero ascendidos a CEO (obviamente, salvando las otras grandes cualidades que se deben reunir para ocupar ese sitio). Miren, salvo enormemente las distancias, el caso de Francisco González en el BBVA.

Sin esa estrategia digital, se tenderán a reproducir espacios físicos en entornos digitales, con lógicas cómo:

  • La web de mi empresa tiene como secciones mis líneas de producto (olvidando que vivimos en la “era de la búsqueda“)
  • En el CRM, cada departamento tiene sus clientes, y no los comparte con otros departamentos
  • En el ERP, no se mete la información a diario porque es un “rollo”
  • Mi estrategia de marketing digital no pone al cliente en el centro, sino que se centra en lanzar campañas (con los problemas que ya he señalado en múltiples ocasiones…)

Y cuando estas cosas ocurren, es normal que haya revoluciones como las fintech, insurtech, operadores de movilidad sin taxis en propiedad, etc. Esto sí que es entender que el nuevo paradigma digital genera nuevas lógicas. Nuevas oportunidades. La transformación digital es otra cosa. Implica pensar de otra manera, implica poner estas nuevas posibilidades digitales desde la estrategia de la empresa. La era digital trae nuevos modelos de negocio, nuevas experiencias de cliente y procesos operativos enriquecidos.

Por todo ello, se trata de entender estas nuevas tecnologías digitales no como un gasto corriente, sino como una inversión que permiten aumentar la propuesta de valor de la compañía, entrando en un plano de innovación que mejore así los procesos y ponga al cliente en el centro. Es decir, que se trata de ganar en productividad con estas herramientas y tecnologías, poniendo la estrategia por delante de todo ello.

El supuesto “Fin de la titulitis” y cómo las empresas tecnológicas valoran el “saber hacer”

Leo, ya sin sorpresa, la siguiente noticia de ayer en El País:

El fin de la titulitis, en El País (Fuente: http://economia.elpais.com/economia/2016/03/03/actualidad/1457024681_163769.html)
El fin de la titulitis, en El País (Fuente: http://economia.elpais.com/economia/2016/03/03/actualidad/1457024681_163769.html)

La noticia nos habla de programas como el de Empleo Digital de la Fundación Telefónica. Y describe la utilidad de los MOOC del MIT como elemento de “reconversión profesional” de una de las personas entrevistadas. Y, salen cuestiones como:

Las empresas tecnológicas ya no valoran lo que has estudiado sino lo que sabes hacer. Cursos de cuatro meses preparan para ese reto.

Compañías que no miran ni una sola línea del currículum para abrir sus puertas a nuevos empleados.

La tendencia ha llegado a España y muchas empresas tecnológicas han dejado de lado los títulos de los candidatos para valorar in situ su capacidad de superar retos relacionados con la programación.

El objetivo es romper con la titulitis y detectar talento.

Las empresas evolucionan a mayor velocidad que los centros educativos y el hecho de contar con una titulación universitaria ya no es sinónimo de estar a la altura de lo que demanda el mercado, al menos en lo que respecta a las habilidades tecnológicas.

Hace unos días publiqué este artículo en el que hablaba sobre muchas de estas cuestiones. En esta noticia de El País, cómo no, debía existir frases tan constructivas como “Muchos de nuestros trabajadores no terminaron la carrera“. En fin, no hace falta que vuelva a repetir que enfoques y noticias/crónicas como esta me parece que fallan en su concepción e idea a transmitir. Una cosa es que haya habido algunas personas a las que les haya funcionado la experiencia (me gustaría saber concretamente cuántas, entre la población total que estuviera en las mismas situaciones… aunque esto, claro, no lo dice la noticia), y otra cosa es que podamos generalizar la idea que para las formaciones técnicas (foco de la noticia), hacer un curso online o meterse en un programa de especialización tecnológica de Telefónica o Google sea suficiente.

Desde aquellos años 30 en los que un grupo de matemáticos y lógicos (Turing, Gödel y Church) lanzaron el campo teórico que hoy llamamos Ciencias de la Computación (Computer Science) a las gafas de Google o los vehículos autónomos de Apple, han pasado más de 80 años. Años en los que hemos desarrollado una industria informática que demanda muchos profesionales, y que cada vez, los quiere más especializados para sus necesidades concretas y urgencias. Quizás bajo esta mirada o perspectiva nazca la noticia.

Por un lado uno se puede alegrar de ver que las formaciones STEM (Science, Technology, Engineering, and Mathematics) estén cada vez más demandadas. Para eso las universidades tenemos formaciones de Ingeniería en esas materias. Nosotros, las universidades, no tenemos como objetivo ofrecer formaciones especializadas. Nos sería realmente imposible. Además de romper con la naturaleza y filosofía de una universidad. Tendríamos que hacer tantos itinerarios formativos como empresas prácticamente. Nuestra misión es otra. Nosotros ofrecemos una formación básica o conjunta de competencias mínimas para que el estudiante luego tenga la autonomía y capacidad de aprender con cierta autonomía la evolución tecnológica, aprenda a programar o pueda seguir esos cursos de especialización digital que hablábamos. Me gustaría a mí saber qué sería de esos programas de Telefónica o cursos de Google con estudiantes de 18 años sin ningún tipo de formación universitaria.

Cuando nos dicen que las universidades vivimos aisladas de las empresas, de nuevo, me gustaría saber qué entienden por universidad. ¿Una formación centrada en las necesidades tecnológicas de sus empresas? ¿Y qué pasará el día que cambien? Creo que es mejor entender la universidad como los “building blocks” o “bloques mínimos” de conocimiento en una formación técnica necesarios para que luego el estudiante, sí, pueda desarrollarse y aprender a través de cursos online masivos (que da para otra entrada, y donde también, me gustaría saber el éxito de un estudiante que tiene una carrera universitaria frente a otro que no la tiene) o a través de programas de formación tecnológica.

Nosotros, los ingenieros, y las Facultades de Ingeniería, tenemos conocimientos en tres áreas distintas:

  1. Ciencia
  2. Tecnología
  3. Herramientas

Me gusta hacer el símil (no sé cuán riguroso es, pero me sirve como heurístico de explicación), de ver la Ciencia como la Investigación Básica, la Tecnología como el Desarrollo y las Herramientas como la Investigación Aplicada/Innovación (“salida a mercado“). Esto es, los “informáticos”, ejercemos nuestra actividad, como cualquier otro ingeniero o arquitecto de sistemas, en todos los eslabones del polinomio de la I+D+i. Cuando nos dicen que en el año 2020, el déficit de expertos en tecnología será de 800.000 personas según previsiones de la Comisión Europea, a mí me gustaría saber qué es un “experto en tecnología“.

Los Computing Curricula de ACM e IEEE, organizaciones profesionales -no universitarias por cierto-, proponen qué materias deberían ser impartidas en la educación superior de Informática/Computación, conforme a criterios científicos, sociales y profesionales. La propuesta presente en 2009 considera cinco grados:

  1. Computer Science / Ciencias de la Computación
  2. Computing Engineering / Ingeniería de la Computación
  3. Software Engineering / Ingeniería del Software
  4. Information Systems / Sistemas de Información
  5. Information Technology / Tecnologías de la Información

Un “informático” es alguien que aprende el punto de vista científico de la computación, el punto de vista de ingeniería del software y de la computación (que no es lo mismo), aprende las tecnologías para el procesamiento de información y diseña y desarrolla sistemas para elaborar una respuesta y ayudar a las organizaciones sobre dicha información. ¿En todo esto ayuda un MOOC o un programa de Telefónica? No lo creo.

Llevándolo al plano de España, en esta resolución de 8 de junio de 2009, se pueden consultar las competencias que debe adquirir un Ingeniero en Informática (considerando, en general, los 5 currículums anteriormente expuestos). Resumo en:

  • Proyectar, calcular y diseñar productos, procesos e instalaciones.
  • Dirección de obras e instalaciones de sistemas informáticos.
  • Dirigir, planificar y supervisar equipos multidisciplinares.
  • Modelado matemático, cálculo y simulación.
  • Elaboración, planificación estratégica, dirección, coordinación y gestión técnica y económica de proyectos.
  • Dirección general, dirección técnica y dirección de proyectos de investigación, desarrollo e innovación.
  • Puesta en marcha, dirección y gestión de procesos de fabricación de equipos informáticos.
  • Aplicación de los conocimientos adquiridos y de resolver problemas en entornos nuevos o poco conocidos. [Mira, justo lo que dice la noticia 🙂]
  • Comprender y aplicar la responsabilidad ética, la legislación y la de ontología profesional.
  • Aplicar los principios de la economía y de la gestión de recursos humanos y proyectos, así como la legislación, regulación y normalización de la informática.

Es decir, no somos obreros, sino arquitectos. Quiero decir: no, no somos gente en un laboratorio encerrados con un ordenador, sino que hacemos proyecciones y cálculos como cualquier otro arquitecto o ingeniero de sistemas. Que no lo hagamos tan bien y a la medida como las empresas quieren, no es sinónimo de “Una titulación universitaria ya no es sinónimo de estar a la altura de lo que demanda el mercado“. Por lo tanto, sin querer defender la titulitis, pero sí, la universidad es necesaria. Sino, traíganme cifras y pruebas, y estaré dispuesto a cambiar mi opinión 🙂