Saltar al contenido

Como lágrimas en la lluvia

Yogi Berra fue un famoso jugador de Béisbol de los Yankees. Además de por darle a la bola con el bate, se le conoce porque el tío soltaba unas frases que han pasado a la historia por su contundencia argumentativa, sus errores expresivos  y su simpleza rayana con el humor. Esta es una de mis preferidas: «Es difícil hacer predicciones… especialmente sobre el futuro». ¡Qué grande Yogi! Uno de los mejores ejemplos de esta argumentación podemos encontrarlo en otro de los curiosos histriones (sin acritud, solo lo digo por su forma de expresarse) de nuestra época: Steve Ballmer. Este hombre que tuvo la desgracia de sustituir al gran Bill Gates al frente de Microsoft, cometió unas cuantas insensateces estratégicas, pero creo que una de las cuestiones por las que pasará a la historia, más allá de por perjudicar notoriamente el legado de su predecesor, es por la frase que pronunció cuando cayó el primer iPhone en sus manos: “Teléfono extraño e incómodo por la falta de teclado, poco práctico”, dijo el hombre.  ¡Qué ojo, Steve! Probablemente, el otro Steve se revuelva en su tumba, volviéndose a morir de risa, cada vez que recuerde la capacidad de predicción de su tocayo.

Predicciones

Y es que ahí quería llegar. A la capacidad de predicción que en general tenemos los humanos. Y que, desde mi punto de vista, tira bastante hacia el nulo. Nos pasamos la vida hablando predictivamente, «sucederá aquello», «tal como van  las cosas, seguro que va a pasar esto otro»… Y no digo nada en el mundo empresarial, «la tendencia actual es», «seguro que esta tecnología estará muy presente en nuestro futuro», etc. La ciencia ficción nos alerta mucho sobre esta falta de capacidad pronosticadora que tenemos. Solo tenemos que revisar los libros o películas de hace unas cuantas decenas de años y el mundo que pintaban para estos primeros años del siglo XXI poco se parece al que tenemos. Hay algunos matices, claro, no podemos fallar en todo. Por simple aleatoriedad estadística en algo tenemos que acertar, pero el marco general, creo que lo erramos bastante.


«Por más que acumulemos datos y los sometamos a análisis, predecir lo que va a suceder, en base a ello, es una tarea que raya lo imposible.»


Para quienes estén de acuerdo conmigo en esta afirmación, les recomiendo un estupendo libro de Nassim Nicholas Taleb, cuyo título es El Cisne Negro. El impacto de lo altamente improbableEl autor desarrolla este concepto a través de la metáfora del cisne negro. Resulta que la humanidad creyó históricamente que todos los cisnes eran blancos hasta que el 1697, se descubrió en Australia el primer cisne negro. Un solo caso hallado echó por tierra un principio común hasta el momento. Construyendo desde esta metáfora, el autor avanza indicándonos lo fácil que es hoy para nosotros analizar causas de fenómenos que ya han sucedido, tales como la primera guerra mundial o los atentados del 11-S. Pero, se pregunta, ¿una semana antes de que sucedieran, alguien podía haberlos previsto?, ¿los sesudos estudios posteriores hablando de las causas de estos hechos, habrían podido llevarse a cabo antes de que sucedieran? Si la respuesta a esta última pregunta fuera afirmativa, ¿por qué no se evitaron? Pues simplemente porque los humanos no tenemos capacidad predictiva suficiente. Por más que acumulemos datos y los sometamos a análisis, predecir lo que va a suceder, en base a ello, es una tarea que raya lo imposible. O lo que es lo mismo, en las palabras más simples de Yogui Berra, «es difícil hacer predicciones… especialmente sobre el futuro». En otra ocasión, reseñaré con más detalle la obra de Taleb, ya que me encanta encontrar personajes como este que bajan al piso la pelota de la filosofía. Uno es filósofo por estudios y vocación, pero su admiración se dirige más hacia pensadores como Platón que el hombre, además de pensar, se dedicaba al cultivo de los olivos e incluso se metía en política, intentando influir a su amiguete Dionisio de Siracusa. O como Spinoza, que el hombre aparte de crear una de las más brillantes teorías sobre el conocimiento humano, se dedicaba a la cosa de pulir lentes para desarrollar el mundo de la óptica. O como pensadores del tipo Newton o Leibniz, que además de darle al asunto de mover silogismos en el caletre, eran capaces de desarrollar modelos matemáticos complejos. No soy yo de practicar el onanismo de pensamiento de aquellos otros filósofos que apenas si han salido de su cuarto leyendo a otros solo para escribir teorías abstrusas. Soy un hombre de acción, qué le vamos a hacer, una especie de ingeniero filósofo, 🙂 .

Pero, sentado lo anterior (¡madre mía!, cada vez hago introducciones más largas), me gustaría pasar al asunto sobre el que realmente quería hablar en este artículo. Me refiero al actual auge de la inteligencia artificial, impulsada por el desarrollo de la tecnologías actuales: Big Data, IoT, Cloud Computing, etc. Y, sobre todo, a una de sus concreciones que parece más cercana, el coche autónomo. Si analizamos los logros habidos en esta materia hasta hoy, es bastante fácil pronosticar que muy pronto tendremos vehículos autónomos. Ahora tenemos potentes sistemas que nos permiten captar los elementos del entorno, acudir a un gran repositorio de datos para analizarlos y tomar decisiones en base a ellos, es decir, todo lo que necesitamos para que una máquina se mueva de forma autónoma.


¿debo matar al conductor del coche o al peatón que estoy a punto de atropellar? o bien ¿en caso inevitable es mejor matar a un abuelete o a un profesional trajeado en su plena madurez? Todas esas decisiones deberán formar parte del repositorio para la toma de decisiones de un sistema automático.


El problema es que hace unos meses murió un empleado de Tesla en la prueba de uno de estos automóviles. A partir de ahí comenzaron a desatarse múltiples especulaciones sobre la viabilidad de esta tecnología. Y ello me llevó a descubrir una estupenda web del MIT: Moral Machine. Esta web está concebida para plantearnos los dilemas éticos que devienen de los problemas de la aplicación de la inteligencia artificial, en general, y, en lo concreto, del asunto de que las máquinas puedan conducir. Os recomiendo que veáis esta estupenda web, además de para que contribuyáis a desarrollar el corpus moral en el que debe basarse la IA, para que os deis cuenta de los grandes problemas que nos quedan por resolver antes de que este tipo de automatismos (coches autómonos, androides de servicio, etc.) puedan ser una realidad. Allí vamos a encontrar cosas como las que que aparecen en la siguiente figura, me refiero a dilemas del tipo, ¿debo matar al conductor del coche o al peatón que estoy a punto de atropellar? o bien ¿en caso inevitable es mejor matar a un abuelete o a un profesional trajeado en su plena madurez? Todas esas decisiones deberán formar parte del repositorio para la toma de decisiones de un sistema automático.

Cuando nos enfrentamos a dilemas éticos de estas características, no tenemos más remedio que preguntarnos, ¿no queda un largo camino para que sociedades complejas como las nuestras puedan crear el corpus legal necesario para que estos sistemas vean la luz? Estamos ante una situación compleja para la que ya tenemos la tecnología que necesitamos, pero socialmente tenemos aún importantes retos hasta que hayamos creado el consenso necesario para que todo esto sea una realidad.

Por eso, cuando desde el mundo empresarial, cuando tanto consultor experto, cuando tanto divulgador nos vende la idea de que algo va a pasar y no podemos perdérnoslo, analicémoslo detenidamente antes de decidirnos a pagar por sus servicios. No quiere esto decir que cosas como el Big Data o la IoT no estén ya claramente formando parte de nuestro mundo. Son herramientas que nos ayudarán claramente a ser más independientes, pero dejémoslas siempre en su concepción de herramientas con un fin. No absoluticemos sobre su uso convirtiéndonos en evangelistas de un futuro que, por definición, siempre es incierto.

Y, desde luego, no caigamos en crear una sociedad tan triste como la que nos plantea Steve Cuts en sus magníficos vídeos e ilustraciones. Su crítica orweliana del futuro tecnológico también debe formar parte de la actual visión que los humanos debemos tener sobre nuestra sociedad. Sobre todo para que estemos precavidos ante la posibilidad de formar sociedades tan tristes como la que plantea en la estupenda animación Are You Lost In The World Like Me? 

En fin, que, sin caer demasiado en esa función pronosticadora criticada en este artículo, creo que nos falta mucho para crear un androide como el de Blade Runner, capaz de actuar como el replicante Roy Batty, con su monumental discurso en los últimos minutos de la película:

Yo he visto cosas que vosotros no creeríais: atacar naves en llamas más allá de Orión. He visto Rayos-C brillar en la oscuridad cerca de la puerta de Tannhäuser. Todos esos momentos se perderán en el tiempo como lágrimas en la lluvia. Es hora de morir.

4 comentarios en «Como lágrimas en la lluvia»

  1. El postulado final de la moralidad de las cosas en infundirles finalmente libre albedrío. Es más complejo de lo que piensas. No se trata de matar a un abuelete o a un profesional trajeado en su plena madurez, es decidir a través de su historial de búsquedas web, sus relaciones interpersonales, su capacidad para evitar el golpe del vehículo basándose en las compras de artículos deportivos significativos, las app de reserva en gimnasio o quizás conocer en milisegundos si ese anciano está en tratamiento por una enfermedad terminal, quizás incluso revisar si tiene una pensión que mantiene a varios a su cargo. La moralidad pasa a un segundo plano, se rectifica el argumentario. Se trata de la verdad, del conocimiento más completo que permite a un dispositivo cambiar el rumbo y tomar no la decisión ética, sino la evalución más perfecta desde la percepción matemática, evalúa si el maduro podrá saltar y evitar el golpe ya que en la última sesión realizó 500 saltos de comba a un ritmo cardíaco adecuado o quizás el giro lo decida el nivel de glucosa en sangre del abuelo ya es insuficiente.
    ¿Nos conocemos lo suficiente nosotros mismos para dignificar ese libre albedrío en las máquinas y los dispositivos electrónicos, en los programas integrados que conformarán el conocimiento frío, el evaluador gran hermano que tantas películas predicen y que gestionarán nuestras vidas?
    La santidad de la información hecha energía la tenemos en el pensamiento, en el discurrir adecuado del ser humano, es la mente la que crea la acción, establece la realidad, pero quizás el conocimiento superior todavía no esté preparado para ser delegado en reflejos de lo que somos, en esa Inteligencia Artificial de la que hablas.
    El futuro sé que es el autoconocimiento del ser humano, su conexión con los Rayos-C, con ese brillar en la oscuridad cerca de la puerta de Tannhäuser. Todos esos momentos deben ser humanos antes de perderse en el replicante que amargamente postula su pérdida en el tiempo como lágrimas en la lluvia.

  2. Por cierto, en el futuro no veremos tantas pantallas, creo que giraremos el concepto y veremos hacia dentro. Se trabajará más en el cerebro..elige el dispositivo de conexión que quieras. Sensores, chips internos, gafas, holografía 3D, virtualización, metodologías necesarias para interactuar con los demás y que lleven al autoconocimiento en relación con los demás. Debe ser así o acabaremos como en el vídeo que pones, perdidos en nosotros mismos. Y si mi equivoco se verá jeje.

Deja un comentario

Descubre más desde Arte de Prudencia

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo