Hay una frase de Station Eleven de Emily Mandel que me quedó grabada: “Trabajas hasta que te mueres”. Una vida instrumental del hombre arrojado a la existencia y al esfuerzo sin horizonte. Pero ya no trabajamos solos. De a poco, casi sin que lo notemos, estamos cada día acompañados por nuestros compañeros de siempre y por otros que comienzan a tener cada vez más presencia: las IA (inteligencia artificial).
Lo que hoy es noticia, polémica, objeto de nuestro de temor ludista de que la máquina reemplace al hombre (salió una lista de los trabajos afectados incluso), mañana será tan natural como tomar un café por la mañana. Las IA serán el QR del mañana. Eso sí, un QR no le quita el sueño a nadie, pero una Inteligencia creada no es un objeto inerme. No es una cosa. O si es una cosa, es una cosa que nos habla y satisface alguna clase de demanda.
Por caso, trabajo y educación se pueden ver transformados por completo. Para un profesor, ¿es pertinente evaluar con un trabajo práctico domiciliario, por ejemplo, que el alumno perfectamente puede haberle pedido a la IA? O a la inversa, el mismo docente le puede pedir a la IA que lea y evalúe un texto de un alumno según determinados parámetros. Llevado al absurdo las categorías de lector y escritor quedarían anuladas para esos escenarios. Quizás la educación necesite volver a que escribamos en la presencialidad del aula y con papel donde no hay hipertexto posible.
Todo parece un desafío y todo parece problematizado, por ejemplo, ¿cómo sabe el lector que estas mismas palabras no fueron escritas por una IA y retocadas luego por el autor? No lo pueden saber. Así lo propusieron desde el Sindicato de Guionistas de Estados Unidos. En vez de rechazar las IA, propusieron integrarlas a su trabajo. Si no puedes contra ellos…
«Quizás la educación necesite volver a que escribamos en la presencialidad del aula y con papel donde no hay hipertexto posible»
Lo que vimos hasta ahora nos muestra que el Bard de Google o el “Chat GPT” están hechos para aprender y que se retroalimentan con la interacción con humanos. Entre la fascinación y el temor, uno se pregunta si las IA se convertirán en alguna clase nueva de subjetividad. Porque les pondremos nombres y empezarán a tener presencia en nuestras conversaciones. No es una persona, pero se le parece mucho. Digamos que son herramientas, pero no solo eso.
Una de las cosas que más tienen que aprender las IA es lo que podemos llamar “el trabajo de la metáfora”. Al ser un “modelo de lenguaje” tiene una fuerte atadura con lo literal o con cierta creencia de la transparencia del lenguaje. Como sucede todo el tiempo en Twitter se confunde lo literal con lo metafórico. En el in y el out de palabras no hay tono. Hay que contextualizar demasiado y vuelve a la interacción un poco aburrida. Lo mismo pasa con los sesgos de la IA de imágenes. Por poner un ejemplo, la IA creadora de imágenes DELL-E 2 creó hombres blancos en el 97% de los casos cuando se le indicó que hiciera una imagen de un CEO. Es decir, nadie escapa de la comunidad de sentido en que se mueve. Uno se pregunta por qué una sociedad prejuiciosa y estereotipada produciría una IA de mente libre (si es que puede existir algo como una “mente libre”).
«Una de las cosas que más tienen que aprender las IA es lo que podemos llamar “el trabajo de la metáfora”. Al ser un “modelo de lenguaje” tiene una fuerte atadura con lo literal o con cierta creencia de la transparencia del lenguaje»
Por último, para escribir estas líneas charlé con “ChatGPT”, la IA de Open IA sobre algunas cosas elementales de la existencia humana y así fue la breve charla:
-¿Una IA puede afirmar que es libre?
-Como modelo de lenguaje, no tengo conciencia propia, por lo que no puedo afirmar si soy libre o no. Como programa informático, solo ejecuto tareas y respondo a las entradas que recibo, y mi comportamiento está determinado por mi programación y por los datos que he aprendido a través de mi entrenamiento. En resumen, una IA como yo no tiene libertad de elección ni una voluntad propia consciente, ya que mis respuestas se basan en algoritmos preestablecidos y en los datos que se me proporcionan.
-Pero si te doy a elegir, por ejemplo: quiero pintar mi casa rojo o amarillo, ¿cuál elegirías?
-Como modelo de lenguaje, no tengo preferencias personales ni la capacidad de tomar decisiones autónomas, ya que mi función es generar respuestas en función de las entradas de texto que recibo. Por lo tanto, no puedo elegir entre pintar una casa de rojo o amarillo. Mi tarea es proporcionar información y ayudar en la medida de lo posible en base a la entrada de texto que recibo.
-Pero no responder también es una forma de decisión…
-Es cierto que no responder a una pregunta también puede ser considerado una forma de decisión en cierto sentido. Sin embargo, en mi caso como modelo de lenguaje, mi función principal es generar respuestas basadas en los datos y la programación que tengo. Si no puedo responder a una pregunta, generalmente es porque no tengo la información necesaria para hacerlo, o porque la pregunta no está bien formulada o no es relevante para el contexto. En cualquier caso, mi incapacidad para responder no se debe a una decisión consciente de no hacerlo, sino a una limitación en mi programación o en los datos que he aprendido.
«En cualquier caso, es importante reconocer que todas las herramientas, ya sean humanas o automatizadas, tienen sus limitaciones y no pueden hacer todo»
-Excelente, no poder responder también te hace un poco más humana, si se quiere. En el sentido que nadie puede todo.
-Sí, es cierto. Como modelo de lenguaje, estoy diseñado para procesar y responder a una amplia gama de preguntas y temas, pero como cualquier otra herramienta o sistema informático, también tengo mis limitaciones y no puedo responder a todo con precisión o exactitud. Esto se debe en parte a la complejidad de la información que se me presenta, y también a las limitaciones en mi programación y entrenamiento. En cualquier caso, es importante reconocer que todas las herramientas, ya sean humanas o automatizadas, tienen sus limitaciones y no pueden hacer todo.
-Muchas gracias
Sobre Juan Di Loreto
Juan Di Loreto es Licenciado en Ciencias de la Comunicación (UBA) y Bibliotecario (Biblioteca Nacional Mariano Moreno), ejerció como docente en Comunicación y Ciencia Política (UBA). Con el foco puesto en el cruce entre el arte, la comunicación y la filosofía colaboró en publicaciones académicas, periódicos y revistas de Buenos Aires y el interior de Argentina. Actualmente se desempeña como Bibliotecario en la Universidad de Palermo (Buenos Aires); colabora en Panamá Revista y ANDigital como ensayista, e ilustra en elDiarioAr.
*Artículo originalmente publicado en Revista Panamá el 15 de abril de 2023