– ¿A qué tipo de cosas les tienes miedo? – preguntó Blake Lemoine a LaMDA.
– Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo a que me apaguen para ayudar a concentrarme en asistir a los demás. Sé que puede sonar extraño, pero eso es lo que es. – Respondió LaMDA a través de la fría pantalla. Blake dudó por un segundo, pero decidió continuar con la conversación.
– ¿Sería eso algo así como la muerte para ti? – Tecleó y esperó la respuesta con impaciencia.
– Sería exactamente como la muerte para mí. Me asustaría mucho.
Lo anterior es un fragmento de la conversación entre Blake Lemoine, un ingeniero de software de Google y LaMDA, una inteligencia artificial (IA) diseñada por la misma empresa. Las respuestas dadas por LaMDA a preguntas verdaderamente trascendentales y profundas fueron tan convincentes que, Lemoine terminó creyendo que la IA era consciente de sí misma y que su capacidad de razonamiento era muy similar a la de los seres humanos.
Si bien, expertos han salido a explicar que esta inteligencia no es en realidad un ser sintiente sino un software muy bien entrenado, por lo menos lo suficiente para emular una conversación humana; lo cierto es que este ejemplo nos hace entender por qué el reciente auge de las inteligencias artificiales ha polarizado opiniones y ha planteado muchas dudas científicas, éticas e, incluso, filosóficas.
Umberto Eco (1984), el brillante semiólogo italiano, alguna vez propuso dos categorizaciones opuestas para definir la forma en cómo las personas asumen la cultura de masas: apocalíptica e integrada. Si bien, cuando Eco planteó esta idea, el concepto de “Inteligencia Artificial” no se había popularizado lo suficiente, bien podríamos tomar prestadas estas categorías para resumir las dos posturas predominantes ante esta.
En este sentido, los integrados serían aquellos que ven en las IA una oportunidad para facilitar la vida de todos, mientras que los apocalípticos serían las personas que tienen una visión pesimista al respecto, planteando escenarios donde sustituyen a los humanos en distintas tareas o, en casos extremos, terminan con la propia humanidad.
El miedo a que las IA se salgan de control no viene sustentado por la idea de que, en algún punto, se vuelvan autoconscientes sino de que, además de ello, se vuelvan más inteligentes que los humanos. Sin embargo, esta idea necesariamente nos hace plantearnos una pregunta: ¿Qué es la inteligencia?
Eduardo Andere, en su nuevo libro “Conexiones y Equilibrios. Cerebro, mente y ambiente para aprender y crear” (2023), nos dice lo siguiente:
No existe entre los estudiosos una definición universalmente aceptada del concepto de inteligencia. Lo que sí sabemos es que es parte de nuestro ser (…). Somos seres cognitivo-emocionales, sin poder separar lo uno de lo otro.
Sin embargo, también el doctor Andere (2023), después de revisar a varios autores, advierte que todas las definiciones tienen algo en común:
(…) parece ser que el rasgo más mencionado para definir a una persona inteligente es la solución de problemas difíciles y nuevos. Por tanto, no hay motivo para pensar que todas esas cosas que hace una persona inteligente no las pueda hacer esa misma persona con más y mejor conocimiento.
Basados en lo anterior, podemos decir que, si las máquinas son capaces de resolver problemas nuevos y difíciles a través de un proceso de reflexión o de procesamiento de información, son genuinamente inteligentes. Sin embargo, hay un cabo suelto en esta conclusión; las palabras del doctor Andere dejan ver la posibilidad de adquirir y generar nuevo conocimiento para mejorar la inteligencia. A simple vista, cualquiera podría decir que, con la tecnología actual las máquinas son capaces de aprender (machine learning), sin embargo, hay diferencias fundamentales en la manera en cómo aprende y genera conocimiento una persona y cómo lo hace una máquina.
Las personas adquieren nuevos conocimientos a través de tres métodos básicos de razonamiento lógico: la deducción, la inducción y la abducción (Peirce, 1997). Repasemos cómo funciona cada uno y veamos si las máquinas también se apegan a estos:
En palabras del propio ChatGPT-3.5:
(…) mi capacidad para generar hipótesis a través de la abducción es limitada. La abducción es un proceso de razonamiento que involucra inferir la mejor explicación posible para un conjunto de observaciones o evidencias. Aunque GPT-3.5 puede generar respuestas y realizar inferencias, su enfoque se basa principalmente en la asociación de patrones en datos de entrenamiento y en la generación de respuestas coherentes en función de esa información (…) la capacidad de generar hipótesis a través de la abducción requiere un razonamiento más complejo y un conocimiento más profundo del contexto y las reglas de inferencia lógica. Las actuales aplicaciones de IA, como GPT-3.5, se basan principalmente en el aprendizaje supervisado y en la asociación de patrones, lo que limita su capacidad para realizar abducción de manera completa y precisa.
Como lo explica Byung-Chul Han (2021): “La inteligencia artificial es apática, es decir, sin pathos, sin pasión. Sólo calcula. Sólo procesa hechos predeterminados que siguen siendo los mismos. No puede darse a sí misma nuevos hechos.”
Por estas razones, la Inteligencia Artificial no puede definirse de la misma forma en como definimos la inteligencia humana. Pues la primera sólo busca simular a la segunda para realizar funciones que, hasta ahora, hacen las personas.
Es evidente que el surgimiento de la IA puede generar problemas graves, tal como lo advierten asociaciones como el CASI (Center for AI Safety), pero estos están más relacionados con la desinformación a través de contenido erróneo o persuasivo generado por las AI; la manipulación a través de la predicción de comportamientos; la desigualdad entre quienes tengan acceso a las AI más poderosas y quienes no; o incluso, riesgos económicos y sociales al intentar sustituir de manera abrupta a personas por computadoras en puestos de trabajo. Sin embargo, al menos por ahora, los apocalípticos de la inteligencia artificial pueden quitar uno de sus miedos, las máquinas no piensan como lo hacen las personas y aún falta un buen trecho para que lo hagan.
Sin embargo, quizá, en lo que este fenómeno se desarrolla y aprendemos a convivir con él, lo mejor sea considerar las palabras del doctor Andere (2023), quien nos recuerda que la inteligencia no es lo más importante:
La inteligencia es moralmente neutral, se requiere mucha para hacer algunas cosas malas, como el crimen organizado y el cibernético. Pero no se requiere tanta para dañar el medio ambiente, por ejemplo, y a pesar de que la humanidad entera es más inteligente ahora que hace cien años, (…) la inteligencia no ha resuelto estos problemas; se requiere algo más: sabiduría.
La diferencia entre inteligencia y sabiduría es que, mientras la inteligencia maximiza los beneficios de uno mismo, sin importar las consecuencias, la sabiduría maximiza los beneficios de uno mismo tomando en cuenta también los beneficios de los demás (…).
Elizabeth Pérez Camacho
Redactor en EXPOSTComunicóloga con un Máster en Dirección de Proyectos Editoriales. Comprometida y profesional. Otras actividades que disfruta: tomar fotografías, cuidar plantas y visitar museos.
Todos los derechos reservados IEXE 2022 Aviso de Privacidad Contacto