Top Posts
PAOLA, UNA VÍCTIMA DEL PATRIARCADO COMUNITARIO
Francia, reforma de las pensiones: un presidente contra...
24 de marzo, presas políticas mapuche: «Para nuestro...
La Federación Internacional de Atletismo decidió que transgéneros...
La mirada de un autista
Francia: más de 3 millones de personas protestaron...
Militarización de la Hidrovía: Paraguay reactiva proyecto para...
Uganda aprueba un proyecto de ley contra la...
Pienso, luego… critico. Parte I
El sueño de una escuela feliz
  • Colectivo Insurgencia Magisterial
Insurgencia Magisterial
Banner
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Micropolíticas del vivir
Espacio principalEspacio secundario

UN FILÓSOFO EN SILICON VALLEY

por La Redacción noviembre 6, 2019
noviembre 6, 2019
Veces que se ha leído este Artículo: 90

Por: Berta González de Vega. Ethic. 06/11/2019

La inteligencia artificial entenderá a los humanos mucho mejor de lo que lo hacemos nosotros. Pero ¿quiénes van a enseñar a las máquinas a tomar decisiones? Las compañías tecnológicas necesitan sociólogos y filósofos que aporten una visión humanística frente a las implicaciones sociales, económicas y ambientales que supondrá convivir con máquinas inteligentes.

Matemáticas y Filosofía es un doble grado de éxito en Reino Unido. La combinación es lógica. La lógica. En Reino Unido –también empieza a pasar en España–, cada vez se hace más complicado conseguir que los matemáticos se conviertan en profesores de adolescentes, pudiendo optar por ganar más dinero y tener más proyección en empresas tecnológicas. El complemento de filosofía es una ventaja añadida cuando los debates éticos arrecian en negocios basados en la inteligencia artificial y la gestión de enormes conjuntos de datos.

Las empresas españolas, según las consultoras de recursos humanos, son más reticentes que las anglosajonas a apreciar grados académicos que no encajen a priori en lo más establecido, y lo de la filosofía entre ordenadores no les cuadra. Todavía. Sí que ha pasado en Silicon Valley, donde son muy valorados los jóvenes que se intentan preguntar cómo funciona el mundo de la manera más racional. Se les deja tiempo para divagar, con un porcentaje de horas laborales que pueden dedicar a tratar de responder cuáles son las grandes motivaciones que mueven a los humanos desde que los griegos supieron describirlas, cómo satisfacer desde la tecnología los deseos más inmutables que nos han hecho distintos a los animales. O meter en el cóctel la moral en la tecnología. Para qué, qué se fomenta, cómo se gestiona, dónde queda la privacidad, el libre albedrío, etc.

Juan Luis Suárez es vicepresidente del CulturePlex Lab, de la Western University de Canadá, dedicado precisamente a investigar sobre estos asuntos donde se funden las humanidades y los algoritmos. Suárez piensa que hacen falta más políticas públicas que, desde la ética, fijen de alguna manera cómo se usa la inteligencia artificial en servicios de salud, de seguridad, cambio climático, defensa o seguros. «Creo que es muy necesario que los Gobiernos regulen y sean efectivos en todo lo referente a la privacidad, el anonimato, el poder de las grandes empresas para cambiar comportamientos y la venta indiscriminada de datos», explica. Y cree que la manera eficaz de hacerlo es a nivel global, porque son cuestiones que sobrepasan fronteras nacionales. Si hay unos estándares en bioética, ¿por qué no los hay ya en inteligencia artificial?

«Los filósofos en plantilla se convierten en una especie de estrategas que ven más allá, en asistentes del buen vivir»

En esta coreada e hipotética era de las fake news, a las empresas tecnológicas les interesa tener cerca a empleados que sepan que el combate por la verdad no es nuevo, que es una lucha de siglos y que su manipulación se acrecienta en ciertas épocas. Es necesario que alguien señale las paradojas de cómo el mundo más informado puede ser el peor informado; los límites a la libertad de expresión o la capacidad de destruir la convivencia que pueden tener los bulos de difusión masiva. La filosofía, en la tecnología, puede ser una vacuna contra el adanismo de los que se creen que se inventa la rueda de las grandes preguntas cada poco tiempo. Pero hay cuestiones relevantes, porque nunca en la historia tan pocos tuvieron los datos de tantos.

Juanma Aramburu es el CEO de Keepler, dedicada a aplicaciones que usan la inteligencia artificial y el machine learning. Como Suárez, cree que sería conveniente que una cumbre mundial regulara la gestión de los datos. Mientras, explica que, en su empresa, se esfuerzan por trasladar a los clientes que, si detectan «que la información produce un sesgo injusto o si no entendemos bien la procedencia de datos de carácter privado, nos negamos a acceder a ellos para usarlos en las aplicaciones». Aunque no ve a su alrededor a técnicos con formación en filosofía, sí entiende que, cada vez más, los empleados aprecian el propósito ético de la empresa como un incentivo laboral. Victoriano Izquierdo, fundador de Graphtext, dedicada al análisis de datos, explica que no cuentan en su plantilla con graduados en Filosofía, pero sí tienen un club de lectura donde se plantean estos dilemas.

Mientras, en Reino Unido existen ya iniciativas como el think tank del Instituto para la Ética en la Inteligencia Artificial y el Machine Learning, con unos principios de uso responsable a los que se pueden adherir las empresas. Y, recientemente, la Universidad de Stanford, en el corazón de Silicon Valley, anunciaba la creación del Instituto de Inteligencia Artificial Humana, con un enfoque multidisciplinar entre tecnólogos y humanistas.

inteligencia artificial

Lasse Rouhiainen es un finlandés divulgador sobre inteligencia artificial, afincado en España: «La clave es la transparencia. Los ciudadanos deben saber cómo, cuándo y dónde se están usando sus datos. En Finlandia es algo de lo que hablan los partidos políticos», y advierte de que algunos Gobiernos, como el de China, olvidan por completo la ética: el país asiático ha elaborado un sistema por puntos que recopila datos de sus ciudadanos y les permite o no el acceso a ciertos servicios dependiendo de sus actuaciones e infracciones, desde créditos bancarios a la posibilidad de comprar un coche o entrar en la universidad… Black Mirror no solo está en Netflix.

Pero los peligros de los usos de datos atañen a esferas aún más etéreas. En un tiempo en el que se nos dice que la presión de las redes sociales hace aumentar la depresión entre los más jóvenes, surge con fuerza la pregunta sobre lo que es la felicidad. De hecho, algunas tecnológicas ya presumen de tener jefes de felicidad. Es ahí donde se explica el éxito que, desde hace años, disfruta el estoicismo entre emprendedores tecnológicos o blogs como Daily Stoic, con propuestas de ejercicios prácticos. O de Andrew Taggart, que se define como un filósofo práctico, la persona a la que acudir si se necesitan respuestas a la pregunta de cómo llevar una buena vida. Según Juanma Aramburu, esto permite a los empleados de las tecnológicas valorar si su labor tiene más o menos sentido.

Tristan Harris es uno de esos trabajadores. Después de trabajar varios años para Google, primero como jefe de producto y después como diseñador ético y filosófico, se hizo la pregunta: ¿estoy empleando mis conocimientos y mi talento en la dirección que quiero? La respuesta no le gustó demasiado: ahora se dedica, curiosamente, a alertar de los efectos que tienen las pantallas sobre nosotros y de cómo esa «atención secuestrada» nos hace vulnerables y manipulables.

Otra de las cualidades apreciadas en los graduados en Filosofía es la capacidad analítica ante los problemas, el poder tirar de hilos mentales de lógica, romper un gran asunto en varios, un aspecto que no es menor cuando se gestionan bases de datos de millones de usuarios. Ahí está la posibilidad de aplicar inteligencia artificial a millones de historias clínicas para observar patrones que puedan explicar los factores de riesgo de enfermedades. ¿Queremos que nos segmenten así? ¿Existen contrapartidas?

Los filósofos en plantilla se convierten así en una especie de estrategas que ven más allá, en asistentes del buen vivir, en consultores que tienen a mano la historia de las respuestas a qué nos hace humanos, especialistas en saber que, por mucha racionalidad que aporten los robots, las emociones humanas, las reacciones basadas en ellas, nunca están fuera de la ecuación. ¿Cómo entender la fiebre por los likes en las redes sociales sin saber qué es el narcisismo, qué define nuestra identidad, cómo manejamos el ego? ¿O cómo se relacionan la felicidad exhibida permanentemente, la envidia o la necesidad de aparentar?

«Si hay regulación jurídica sobre bioética, ¿por qué no la hay sobre inteligencia artificial?»

Recientemente, cundió el entusiasmo en la opinión pública española ante el anuncio de la posible recuperación de Filosofía como asignatura obligatoria en Bachillerato. Hubo un clamor por potenciar una materia que fomentaba el pensamiento crítico, que provocaba el debate, que promovía las grandes preguntas. En un ambiente en el que se suele retratar a una adolescencia perezosa, es llamativo el éxito de las Olimpiadas de Filosofía, donde se suelen presentar a los alumnos preguntas que pueden relacionar con retos actuales como nuevas tecnologías e identidad humana. También algunos ejecutivos insatisfechos desean profundizar en esos porqués metafísicos y humanistas, y se apuntan a talleres como los de la Escuela de Filosofía de Madrid, donde se ofrece un curso llamado El gusto por el pensar.

Serán estos empleados los encargados en ocasiones de redactar los valores de la empresa que deben de casar con los beneficios, pero no necesariamente ponerlos por encima de cualquier aspecto.

En cierto sentido, los filósofos prácticos de estas empresas serán unos pepitos grillo a los que se les pague por serlo, en condiciones ideales. Aunque cada uno definirá lo que es ético de una manera. No en vano, uno de los máximos exponentes de emprendedor con un background tecnológico es Peter Thiel, fundador de PayPal, un personaje muy controvertido en Silicon Valley que ha apadrinado diversas iniciativas de corte libertario.

El ejemplo que mejor expresa el importante papel que juega la filosofía en entender la inteligencia artificial es el programa ya veterano de la Universidad de Stanford, el Symsys, con el que los alumnos aprenden programación, lingüística, ciencias cognitivas y, sí, filosofía. De nada servirá la inteligencia artificial que no considere las más profundas inquietudes humanas.

Cómo se acabe incorporando la filosofía a las empresas tecnológicas es un asunto pendiente, en evolución. Pudo ser una moda. O no. La certeza es que los estoicos seguirán en las listas de los más vendidos. Aunque su última versión para emprendedores mileniales se llame El sutil arte de que todo te importe una mierda. No cabe duda de que la ética importa cada vez más. Aunque ese debate, ligado a la tecnología, no esté aún en la agenda de los políticos.

LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ.

Fotografía: Ethic

Compartir 0 FacebookTwitterWhatsapp
La Redacción

noticia anterior
LOS OTROS ‘MESSIS’: ¿DE QUÉ DEPENDE EL TALENTO?
noticia siguiente
Democracia y violencia

También le podría interesar

Anorexia: una experiencia filosófica

marzo 24, 2023

El feminismo cercano a Spinoza y a Lacan

marzo 9, 2023

Una biblioteca imaginaria para tiempos difíciles

marzo 2, 2023

Visitantes en estos momentos:

211 Usuarios En linea
Usuarios: 65 Invitados, 146 Bots

CINE GRATIS EN XALAPA

Unidad de Investigaciones Periodísticas de la UNAM

Para LEER y DIFUNDIR

Artículos por AUTORES

Artículos publicados por FECHA

marzo 2023
L M X J V S D
 12345
6789101112
13141516171819
20212223242526
2728293031  
« Feb    

Artículos más leídos esta semana

  • 1

    DEL BULLYING AL CRIMEN

    marzo 23, 2023
  • 2

    Universidades para el Bienestar Benito Juárez García ¿combatir la marginación y exclusión educativa con prácticas laborales neoliberales?

    marzo 22, 2023
  • ¿Cuáles son los elementos de una historieta?

    febrero 15, 2017
  • 4

    La sociedad de la decepción

    marzo 23, 2023
  • 5

    ¿Cómo juega el olvido?

    marzo 23, 2023
  • 6

    Unheimlich: caos y autómata cognitivo

    marzo 23, 2023
  • 7

    Antidepresivos y serotonina: el estado actual de la ciencia

    marzo 23, 2023
  • 8

    Ciclo de Cine en Xalapa. Entrada GRATUITA

    marzo 24, 2023
  • 9

    PAOLA, UNA VÍCTIMA DEL PATRIARCADO COMUNITARIO

    marzo 26, 2023
  • 10

    Cristina Hermida: “Es preciso dar protagonismo a la ética y al diálogo en esta sociedad segmentada y polarizada”

    marzo 23, 2023
  • 11

    Poder y fuga

    marzo 23, 2023
  • 12

    Presentado con vida.

    marzo 23, 2023
  • 13

    La auto-percepción de lxs psicoanalistas. El psicoanálisis patriarcal al diván. (Notas de una psicoanalista en el 8M

    marzo 23, 2023
  • 14

    Anorexia: una experiencia filosófica

    marzo 24, 2023

Vanesa Monserrat. Argentina

Rolando Revagliatti. Argentina

Juan Antonio Guerrero O. México

Raúl Allain. Perú

Carolina Vásquez Araya

Ilka Oliva-Corado

Javier Tolcachier

Columna: CORTOCIRCUITOS

Manuel I. Cabezas González

Luis Armando González

Iliana Lo Priore

Jorge Salazar

Adolfo del Ángel Rodríguez

Oswualdo Antonio G.

José Eduardo Celis

Daniel Suárez

Güris J. Fry

Jorge Díaz Piña

Ángel Santiago Villalobos

Andrés Brenner

Alejandra Cortina

José Carlos Buenaventura

Luis Palacios

BIBLIOTECA de ÁBACOenRed

Suscríbete

Acepta recibir notificaciones

@2020 - Insurgencia Magisterial

Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Micropolíticas del vivir
Insurgencia Magisterial
  • Inicio
  • Nosotros/Legal
  • Directorio
  • Alianzas
  • Columnistas
  • Voces que seguimos
  • Micropolíticas del vivir
@2020 - Insurgencia Magisterial

Leer también:x

“La Filosofía podría ser el hilo conductor...

enero 11, 2019

Tayta Sinchi: “La medicina ancestral es sabiduría,...

abril 17, 2022

Más filosofía y menos autoayuda

marzo 1, 2022