Internet y la verdad: un periodo de transición y cambios

Conviene de vez en cuando parar a entender la arquitectura y forma de expresión de esta era digital. Especialmente, para entender bien cómo ha afectado al origen de donde venimos. Me refiero a entender las diferencias entre la imprenta de Gutenberg, que durante 500 años nos ha permitido que la información que uno quería leer se tuviera que editar, imprimir y distribuir. Esto, introducía una pausa y detenimiento en la forma de elaborar información y conocimiento, que hacía que la gente confiara en esas noticias.

Esto me parece especialmente ilustrativo en esta era de las redes sociales en las que la información viaja a la velocidad de la luz. Dado que venimos de donde venimos, la gente en Internet sigue confiando en lo que lee. Y esto es lo que pasa, que ahora estamos en pleno debate sobre lo que circula por Internet: qué es veraz y qué no, qué es un rumor y qué un hecho, etc. Esto, es inherente a la arquitectura abierta con la que nació Internet. Cualquiera podría producir información y conocimiento, pudiendo así introducir ruido en un lector que, ya digo, confiaba siempre en lo que leía.

Y es que no todo es escalable e industrializable. La producción de información y conocimiento verdadera, por ejemplo. Sin embargo sí es escalable e industrializable a la velocidad de la luz la distribución de esa información y conocimiento. Y esta es la reflexión que creo debiéramos hacer en una época en la que los bulos, rumores y falsas noticias, con titulares que invitan a que así sea (que entienden bien cómo funciona Internet), es nuestro día a día.

Aquí la pregunta que uno se hace siempre es el “por qué” de las cosas. ¿Por qué nos creemos algo como cierto simplemente por que lo vemos en nuestros amigos en redes sociales? Danielle Citron, lo explica de la siguiente manera:

“[…] People forward on what others think, even if the information is false, misleading or incomplete, because they think they have learned something valuable.”

Es decir, nos gusta hacer de periodistas. Nos gusta pensar que tenemos alguna información de valor. Y esto, cuando pasaba en el mundo físico (que también pasaba claro, como fenómeno humano que es, no digital), generaba problemas, pero no tantos como ahora. El efecto viral de ahora, multiplica este problema de manera imparable. Así, inventarse un hecho, y que eso se lo crea bastante gente en poco tiempo, no es tan difícil como uno pensaba. Básicamente, porque la distribución de información es muy barata y rápida, a pesar de que la producción de información y conocimiento no es rápida ni barata. Y esta es la frase que creo resume muchos de los problemas que tenemos hoy en día en Internet.

Por eso, los cambios en el algoritmo de Facebook son tan peligrosos. Que no nos expongamos a la heterogeneidad de las noticias de otras fuentes, puede provocar que este efecto de distribuir mentiras falsas sea aún más perjudicial. Ya comentamos esto era un sesgo con el que nuestro cerebro se siente especialmente cómodo. En 2011, Eli Pariser, el co-fundador de Upworthy, creó el término “burbuja de los filtros“. Se refería a cómo las funciones de búsqueda personalizadas (te ofrezco los resultados que más te van a gustar), deja en manos unos algoritmos de caja negra un peligro informativo tan grande.

Así, debiéramos preocuparnos porque las redes sociales reflejen la heterogeneidad informativa que pudiera permitir separar el grano de la paja. Y que la popularidad en la difusión de algo, no sea la métrica que permita modelizar el “interés por algo”. Debiera ser la verdad, la veracidad de una noticia, de una información, la que prevaleciera. Pero es que esa “burbuja de los filtros” de la que habló Pariser, hoy en día no solo no ha mejorado, sino que es que encima ha empeorado.

Miren esto, sobre el #brexit:

Tom Steinberg, un activista de Internet y fundador de mySociety (que proveen herramientas tecnológicas para el cambio y progreso de las sociedades), alertaba de los riesgos sobre que la difusión de información y conocimiento de nuestros días fluyera principalmente en redes sociales que tienen esos algoritmos de ordenación de información de “caja negra”. No saben priorizar la verdad. La última frase es bastante descriptiva: “La mitad de la población no sabe lo que dice la otra mitad“.

Pero es que las redes sociales, con su valor bursátil, viven de esto. De que reciban la información que quieren, que esperan, que les refuerza positivamente sus ideas. De esta manera, entrarán más, y así serán impactados más por publicidad, que aumenta el valor de esas empresas. Por lo tanto, no tienen incentivo alguno a cambiar esta manera de “trasladar la supuesta verdad”.

Y el problema es que las redes sociales, especialmente Facebook, no solo ha adquirido el monopolio de las noticias, también de las campañas políticas, la retransmisión de eventos, historias de personas, promoción del ocio, campañas de marketing, etc. Es decir, es la TV de este Siglo XXI, y por eso, ha ganado tal poder, que debemos empezar a solicitar el escrutinio de esa difusión y producción de la verdad de la que tantas otras veces he hablado.

Si todo esto no fuera así, el cambio del algoritmo de Facebook no sería noticia. Y que Instagram y Twitter empiecen a ordenar por supuesta “relevancia”, tampoco. Pero sí, sí es noticia. Ellos ahora tienen sus líneas editoriales en manos de unos algoritmos de caja negra que deciden, por unas métricas basadas en supuestas verdades, lo que nos interesa. Y esto, bajo mi punto de vista, es muy peligroso. Y debiera hacernos reflexionar.

Necesitamos tener este debate para saber cómo poder hacer frente a las noticias y contenidos que no son ciertos. Ya no hablo solo de responsabilidad, honestidad y ética. Hablo de algo más. El problema es que no sé el qué. Pero lo que no me parece de recibido es que cualquier noticia “fake” (falsa) que quieran imaginar, por escandalosa que sea, siempre tenga algún reflejo en Internet. Hagan la prueba en Google. Internet y la verdad, será un debate que nos acompañe durante mucho tiempo. La veracidad, uno de nuestros mayores retos.