El “cable de Bilbao” y la importancia de la conectividad y latencia de las redes de comunicaciones

Hace unas semanas, aquí por Bilbao, nos levántabamos con la noticia que un cable submarino de Microsoft y Facebook uniría Virginia Beach en EEUU (buscando diversificación respecto a New York o New Jersey) con nuestra noble villa. Un total de 6.600 kilómetros de cable. El objetivo no era otro que crear una “autopista” en el mar que transfiriese datos a 160 terabits por segundo para así poder hacer uso de los servicios online de ambas compañías de una manera más rápida y estable.

Fuente: http://www.ecestaticos.com/image/clipping/654/d823ba912c77dc52d7dab539470417b3/imagen-sin-titulo.jpg
Fuente: http://www.ecestaticos.com/image/clipping/654/d823ba912c77dc52d7dab539470417b3/imagen-sin-titulo.jpg

Dos empresas, Facebook y Microsoft, entre las top-4 del mundo y de la tecnología ahora mismo. Bastante sintomático. El cable submarino de mayor capacidad de los que cruzará el Atlántico y el primero que conectará EEUU con la parte más sudeste de Europa. De ahí, estas empresas, quieren conectarse con ramas hacia África, Oriente Medio y Asia.

La búsqueda de un mayor ancho de banda responde al interés de muchas empresas por mejorar su conectividad y latencia. Ya he comentado en anteriores ocasiones, que el mundo se está conectando a una velocidad muy importante (incluso con dominios .cloud) y que además, muchas empresas están estudiando cambiar su paradigma y forma de definir la estrategia tecnológica y digital a través de las tecnologías cloud.

Esto me lleva a pensar que en unos años, a los ciudadanos, a las empresas, a los gobiernos, etc., nos preocupará más la latencia y conectividad de las comunicaciones que la capacidad de computación. Esto último, ya parece cada vez más commodity. Migramos más a la nube nuestro día a día, desde los propios datos (espacios de almacenamiento en la nube), hasta el procesamiento de los mismos, por lo que cada vez trabajamos más en nuestro ordenador o dispositivo móvil, pero disponiendo los datos y su computación en la propia nube.

Es más, la nueva informática cognitiva (próxima a nuestro cerebro), algorítmica (toma de decisiones en base a reglas y evidencias conocidas) y social (conexión entre humanos), mejora cada día a día gracias a la conectividad y los datos. Desde los bots, pasando por los algoritmos de cajas negras, hasta el paradigma blockchain como exponente de las arquitecturas abiertas, esta necesidad parece una tendencia sin freno.

Volvamos a España y nuestras necesidades. Actualmente, esa nube sobre la que trabajamos está fundamentelmente alojada en centros de datos de Irlanda, Países Bajos y Alemania. Esto puede tener sentido a sabiendas que las latitudes del norte de Europa ofrecen una climatología para refrigeración de las granjas de servidores en lugares fríos. Esa distancia física, no es problema, a sabiendas que la “demanda cloud”, no es tan grande como puede serlo en pocos años.

Sin embargo, esto pudiera cambiar si la latencia y conectividad se vuelven más críticas, y si encima, en España, seguimos desarrollando una industria de energías renovables fuerte (solar y éólica, que aprovechen nuestras singularidades geográficas y nuestra meseta y biodiversidad), que haga sostenible disponer de importantes equipos de refrigeración. En ese momento, es cuando podemos pensar en disponer de una industria de centro de datos en España. Creo que el movimiento de Facebook y Microsoft nos debe permitir anticipar la necesidad que habrá de llevar cables importantes a los mercados estratégicamente relevantes. Entre los cuales, esperemos esté España. Y cuando la latencia (suma de retardos temporales dentro de una red) sea crítica, no podremos permitirnos tener esos centros de datos a tantos kilómetros.

Ya sé que es un mantra, pero es que los datos no van a ser una industria secundaria. La Inteligencia Artificial ha mejorado gracias a los datos. El paradigma del Big Data, está transformando muchas industrias, y dando muchas palancas de competitividad.

Esto, desde una perspectiva de lo público, también debiera ser objeto de reflexión. Estamos adelantando una era en la que la creación de spin-offs, startups, etc., dependerá en gran medida de la conectividad y la baja latencia. Estamos hablando de una era en la que los emprendedores serán el vector de cambio más importante. Y por lo tanto, privarles de estas capacidades de computación en la nube, será mermarles la competitividad en un plano internacional. Lo que en otra época fue la electricidad o el acceso a mercados de capitales, en un futuro próximo serán la expresión en bits y las redes que permitan intercambiarlos a una velocidad realmente alta.

Por ello, quiero creer que nuestros representantes son conscientes del handicap de comunicaciones que tenemos en España. Y sé que estoy entrando en un tema ciertamente polémico. Pero no quería dejar de subrayar, que estamos hablando de un tema que afecta a todos, y como tal, debe ser resuelto también por una participación de las instituciones.

Como ven, la competitividad del Siglo XXI puede que se mida en conectividad y latencia. En España reunimos muchas características para que podamos disponer de una industria de centro de datos importante. Solo hace falta darnos cuenta de lo que tenemos.

De los PCs a los móviles: ¿qué nos depara el futuro? La era de la inteligencia

Desde aquellos años 30 en los que un grupo de matemáticos y lógicos (Turing, Gödel y Church) lanzaron el campo teórico que hoy llamamos Ciencias de la Computación (Computer Science) hasta la fecha, han pasado más de 80 años. Por medio, los años 50-60, cuando nace la industria asociada, que permite llevar a más lugares que grandes laboratorios los ordenadores. Años, en los que a unos cuantos, nos ha despertado interés la informática, la hemos estudiado, y no paramos de hacernos preguntar sobre el futuro de la misma.

La “industria de la computación“, que podemos llamar para simplificar “mundo digital” ha ido desarrollándose siempre de la mano de dos ciclos: el de producto y el financiero. De este último se está hablando mucho últimamente, especialmente porque muchos creen que volvemos al año 2000 y las probabilidades de que exista una burbuja financiera están aumentando. No lo sé. Bueno, mejor dicho, no lo creo. Creo que no son las expectativas irracionales del año 2000, cuando la burbuja de las “.com”, provocó que se descubriera que apenas se creaba valor gracias en aquella época de Internet.

Yo creo que hoy sí está generando valor la constante transformación digital de las industrias. Precisamente acabo de escribir dos artículos (éste y éste) para justificar más éste artículo. Hoy quiero hablar sobre cómo se está generando valor sobre las diferentes plataformas que hoy en día están permitiendo el desarrollo de valor en productos gracias a la era digital: básicamente, Internet y los dispositivos móviles. Y lo hago porque la próxima semana viajo a Arabia Saudí precisamente para dar una serie de workshops sobre la materia a emprendedores que quieren abrazar esta era digital como una oportunidad. Especialmente desde la óptica de la educación, que es lo que hacemos desde eCampus en la Universidad de Deusto.

La respuesta sobre la posibilidad de una burbuja recae siempre en el “ciclo de producto“. Hoy en día, el “Ciclo de producto”, es decir, el producto tecnológico, se puede describir formalmente de la siguiente manera:

Producto tecnológico = Plataforma + Aplicaciones

Es decir, que la posibilidad del desarrollo de producto tecnológico (se entiende que digital, las Tecnologías de la Información y la Comunicación), depende de disponer de una infraestructura de soporte (Plataformas) sobre la que desarrollamos una serie de utilidades o Aplicaciones. A nivel de plataformas y aplicaciones, hasta la fecha, podemos decir que hemos vivido básicamente cuatro ciclos desde los años 50-60:

  1. Era centralizada: sistemas que automatizan trabajos administrativos. Apenas (o ningún) valor intelectual. Se mecanizan ciertos procesos, que se hacen más eficientes.
  2. Era del PC: cliente-servidor. Aparece el ordenador personal, ya no solo como una herramienta de ciertos procesos, sino que pasa al trabajo personal para hacerlo más productivo. Construimos aplicaciones de ofimática y otras de escritorio. Es la era que arranca el Apple II en 1977 y el IBM PC en 1981.
  3. Era de Internet: nace la interconexión entre los PC, que ha desarrollado gran parte de la economía global. Es uno de los pilares de la infraestructura actual. Empezamos a construir aplicaciones como buscadores, correo electrónico, tiendas online, redes sociales, SaaS, etc. Si bien en algunos entornos académicos o militares ya se disponía de algunas de estas cuestiones en los 80s, realmente a nivel de consumo aparece en 1993 con Mosaic, el primer navegador web gráfico.
  4. Era de los dispositivos móviles: el segundo gran pilar, y quizás el ciclo más importante ahora mismo. 2.000 millones de personas tienen al menos 1 smartphone. Y hemos desarrollado aplicaciones móviles para agilizar e intermediar en cadenas de valor como el taxi, alojamientos turísticos, etc. Si bien Blackberry y Nokia irrumpen a comienzos de los 2000, el pistoletazo de salida sin duda alguno lo provocan en 2007-08 el iPhone y Android.

La pregunta ahora recae en lo que está por venir. Es decir, dónde están las oportunidades para los emprendedores. Para ello, quizás sea interesante pararse a pensar en las tendencias hardware y software que se están produciendo, para así hacer una reflexión sobre lo que pudiera aparecer:

  • Hardware: está siendo cada vez más pequeño, barato y ubicuo. Pensemos que las CPU que tenemos ahora son “systems-on-a-chip“, en el sentido de que por 5 dólares tenemos una Raspberry Pi Zero con un procesador de 1 GhZ y 512 MB de RAM. Una locura para los que adquirimos nuestro primer ordenador (hardware) a mediados de los años 90 con características inferiores y precios totalmente desorbitados. Dos cuestiones fundamentales caracterizan al desarrollo del hardware:
    • La Ley de Moore y la industria de los semiconductores: cada vez por menos recursos, tenemos más producto (tanto en capacidad como potencia). Por lo tanto, esta tendencia hardware hace que a futuro, veamos “ordenadores” en todas las esquinas que nos rodean (paredes, autobuses, zapatillas, cunas de nuestros hijos, etc.). Es lo que se ha venido a bautizar como el Internet de las Cosas.
    • Como diría Chris AndersonEl dividendo de la paz en la guerra de los smartphone“: los componentes de los móviles, ante la guerra que se desató entre fabricantes (Apple, Google, Samsung, etc.), hace que sean más económicos que nunca: sensores, GPS, cámaras, procesadores ARM, antenas WiFi, memorias, baterías, etc. Esto, beneficia a industrias colindantes como los drones, sensorización, las fábricas (ahí tenéis la Industria 4.0), etc. etc.
  • Software: estamos viviendo ahora mismo la era dorada de la “Inteligencia Artificial“, tras el “largo invierno” que vivió en los 80 y 90. Quizás derivado de la abundante materia prima que tienen ahora los algoritmos para mejorarse a sí mismos (el “machine learning en la era del Big Data“). Tenemos varias cuestiones moviéndose a gran velocidad:
    • Sistemas distribuidos: Hadoop, Spark, y la posibilidad de paralelizar Bases de Datos y resolución de problemas.
    • Blockchain: para asegurar datos y activos. Ya hablé de ello.
    • Deep Learning: un descendiente directo de las redes neuronales. Pero que se beneficia en la actualidad de la gran cantidad de datos, el bajo precio de la computación y los nuevos algoritmos. Algoritmos de inferencia de conocimiento no conocidos hasta la fecha.
    • Open Source: democratización de las posibilidades de crear. Estamos asistiendo, por primera vez en la historia, a unas capacidades tecnológicas muy “económicas” en términos monetarios, aunque de gran exigencia intelectual. Nada es gratis. Whatsapp se crea con 50 empleadas, y presta un servicio a 1 de cada 9 ciudadanos del mundo (algo más de 900 millones de personas ahora mismo).

Lo bonito de todas estas cuestiones aparece cuando mezclas todo ello. Y es que los sistemas de Inteligencia Artificial, son mejores con una mayor cantidad de datos. El Deep Learning, mejorará en consecuencia. Y las tecnologías Open Source, seguirán desarrollándose. Todo ello, en agregado, produce el “data-network effect“: más usuarios, más datos, llevan a mejores productos, que traen más usuarios. ¿Por qué Google pagó por Waze mil millones de dólares?

Por todo ello, creo que queda todavía mucha inteligencia que aportar a elementos como los asistentes de voz, motores de búsqueda, estrategias de retargeting (una mejora de la publicidad), traductores, automóviles (Über, Tesla, Google, Ford, Daimler, etc.), drones (hardware complejo con un software simple), medicina y abogacía, escáneres e impresores 3D, etc.

Esa capa de “virtualización inteligente” que aporta la mezcla de esas tendencias de hardware y software llevará a la mejora de las prestaciones de esos elementos y áreas. O, al menos, esas es mi visión, claro. De los PCs a los móviles, para aprovechar esta “era de la inteligencia“.

La era de la inteligencia (Fuente: https://leadingedgeforum.com/asset/6508/)
La era de la inteligencia (Fuente: https://leadingedgeforum.com/asset/6508/)