Cuando no sabes para dónde vas, cualquier camino es útil

Las promesas insatisfechas de la IA o ¿O porqué nadie quiere hacerse cargo de lo que implica ser humano?

Ácrata y Banquero

--

Este escrito tiene como hipotesis fundamental que todo aquello que se denomina Inteligencia Artificial no es otra cosa que la traslación de responsabilidad dialéctica en la toma de decisiones de la subjetividad humana a la objetividad deterministica. Y por lo tanto que ello implica una extralimitación del positivismo cientifico sintetizado en el abuso de la estadistica.

A estas alturas del partido no hace falta enumerar los abrumantes ejemplos del uso de la inteligencia artificial en soluciones a los problemas de la cotidianidad.

Lo que si pareciera hace falta en ese discurso es desenredar los conceptos; para quitarle su aura mágica y resolutiva.

La inteligencia artificial no es más que someter un algoritmo — secuencia de pasos lógicos — que se autoregula — ajusta sus variables internas — a millones de ciclos de forma tal que su resultado se ajuste a distribuciones estadisticas.

El asunto es así; yo escribo un código que interpreta un conjunto de entrada y le indico el conjunto de salida esperado. La tecnología actual permite que el código, algoritmo, realice tantos intentos como sean necesarios para que ajuste su configuración interna de forma tal que su salida sea aquello que yo le indiqué es la salida esperada a partir de un conjunto de entrada.

Las consecuencias de esta lógica son en términos generales:

  1. Si la relación entre el conjunto entrada y conjunto salida implica sesgos de cualquier índole, así sea de forma implicita, el algoritmo terminará por reproducir dichos sesgos.
  2. La definición del conjunto esperado acota indefectiblemente la solución y por lo tanto la predetermina.

Existen bastantes casos bien documentados de inteligencia artificial que resulta racista,s exista y xenofoba. Para la muestra el caso de Tay, el bot en Twitter ideado por Microsoft que resultó un fracaso de marca mayor. La idea era exponer un algoritmo capaz de aprender de las interacciones a través de tweets y que a raíz de ello estableciera una postura propia. Postura que decantó en antisemitismo y sexismo debido a que usuarios de grupos radicales se dedicaron sistematicamente a intereactuar con dicho bot. Lo que decantó en titulares del tipo “Microsoft retira su bot por publicar mensajes proNazis”.

Si se quitan las pasiones del medio; el bot hizo aquello para lo que fue ideado; interpretar información y generan contenido partir de dicha información.

Ahora, que esta información sea politicamente incorrecta es algo que excede a su capacidad.

Por lo tanto, inútil es iterar varios millones de veces sobre el mismo conjunto de datos de entrada si la salida esperada es inaceptable desde antes de la iteración cero. O cómo diría mi amigo chef; por más que te esfuerces, si la receta es una mierda, no esperes más que un sorete.

Lo mismo pasó cuando en Amazon quisieron aplicar IA a procesos de selección y decantaron — para variar — en racismo y sexismo.

El chef tenía razón.

Ahora bien, lo delicado con la IA no es qué tan discriminadora pueda ser. El problema de fondo es que se le otorga un pedestal de objetividad contra el que no se pueden emprender acciones legales. O dicho de otra forma; se genera una entidad que no asume responsabilidades. Si une queer aplica para un trabajo en Amazon y es rechazade exclusivamente por su género a pesar de sus méritos y habilidades; no se despide con una merecida patada en el culo al director de ingeniería de Amazon. Como no pasó con el crack que escribió o dirigió el desarrollo de Tay en Microsoft. He ahí un peligro latente.

¿Quién asume la responsabilidad de un algortimo de IA que decide como distribuir los recursos de la salud pública cuando estos terminan favoreciendo y enriqueciendo los bolsillos de contratistas entongados con politicos de turno — como ha pasado siempre; conjunto de entrada y de salida — ; a sabiendas que dichas asignaciones implican la muerte por desnutrición en regiones donde la tributación estatal no tiene recaudación?

Esa es la traslación de la responsabilidad dialéctica; no es un director de tecnología el que asume la responsabilidad de la decisión. Aunque siempre hemos sabido que los objetos no tienen capacidad de elección propia. Pero en los discursos se mezclan peras con manzanas y pasa de agache; basta con ajustar el algoritmo. Lo grave es que el foco no está en el conjunto de entrada, que es de naturaleza subjetiva; sino en el algoritmo que es de naturaleza objetiva y siempre ha de generar un resultado, sea tan nefasto como sea.

Ahora bien; si los humanos implicitamente — o explicitamente, como los grupos radicales que educaron a Tay — codifican sus sesgos y discriminaciones en datos, y dichos datos alimentan los motores de IA, ¿porqué no existen datos que reflejen el mosaico de posturas que componen las sociedades modernas? La respuesta es el positivismo y el vehículo la estadistica.

El positivismo sólo le da validez a aquello que se pueda demostrar a través del método cientifico; y por tanto a aquellos fenomenos que se manifiestan. Así, configura una forma intelectual de la democracia que abusa de la estadistica. Si existen minorías fenomenológicas, las mismas se desechan por no ser parte de los modelos mayoritariamente manifestados.

En términos de la AI, la pregunta sería ¿Cómo se entera Tay de que el mundo no es sólo racismo y sexismo si elloconstituye el 90% de lo que conoce?

En términos amplios; ¿Cómo puede decidir un algoritmo con criterios que ha sido alimentado por conjuntos de entrada que no los contienen?

Simplemente no puede.

Así; la IA y toda la fanfarria que la acompaña no es más que lo mismo que hemos venido haciendo pero más rápido y maquinal. Pero con menos implicaciones legales; a todas veces que nadie ha resultado preso por la decisión de la IA de atropellar a un transeúnte.

--

--