El paradigma cognitivista reemplazó al conductista en la psicología de los años cincuenta. Este nuevo modelo se interesaba por los procesos mentales que sucedían en la caja negra del cerebro humano. El auge de la tecnología de la computación permitió simular mediante una máquina los procesos cognitivos, lo que exigió una descripción más precisa de los mismos. Hoy en día, los avances en la inteligencia artificial, en particular en ChatGPT, están permitiendo comprender mejor el funcionamiento del cerebro humano, que es en realidad un sistema Generative Pre-Training Transformer (GPT).
Al igual que el cerebro humano, esta tecnología genera textos basándose en datos y procedimientos sintácticos. El cerebro no es consciente de los mecanismos que preparan una frase o cualquier otro fenómeno mental. Por tanto, no conoce la frase que está formando hasta que se la enuncia. Los programas ChatGPT 3 y 4 funcionan por aprendizaje por reforzamiento, al igual que nosotros. Este tipo de aprendizaje fue estudiado por el psicólogo B.F. Skinner y se basa en dar premios (refuerzos) a la máquina para que se las ingenie por alcanzarlos. Este método de premiación o recompensa es diferente a las instrucciones, ya que la máquina puede tomar decisiones por sí misma sin que se sepa cómo y buscar reforzadores o premios.
Los programas ChatGPT no tienen metas por sí solos, ya que solo tienen como fin los premios que se les establecen. Por tanto, si queremos ser rigurosos, debemos corroborar la fiabilidad de los resultados que genera la IA. Es necesario fortalecer el pensamiento crítico para evaluar los mecanismos de la IA, ya que la tendencia actual muestra un debilitamiento de la capacidad crítica de las personas en general.
El cerebro humano tiene un sistema de seguridad que le permite no confiar plenamente en el “inconsciente cognitivo” y somete los resultados de sus procesos mentales a una prueba de fiabilidad consciente. La IA carece de esa capa superior y depende del pensamiento crítico de los humanos para evaluar sus resultados. La inteligencia humana tiene dos niveles: Sistema 1 (inconsciente, automático, rápido pero no fiable) y Sistema 2 (reflexivo, racional, lento, fiable). Para corrobora la fiabilidad de los resultados de la IA, debemos utilizar la inteligencia ejecutiva como herramienta para evaluar los resultados del inconsciente cognitivo de la IA.
El peligro radica en la delegación de funciones esenciales a la IA, lo que podría debilitar el pensamiento crítico de los humanos. A pesar del progreso de los sistemas autónomos, su autonomía está limitada por las preferencias diseñadas por humanos, así que no debemos caer en el engaño de la supuesta autonomía de la IA. Si nos convertimos en esclavos de las máquinas, se cumplirá la profecía por el simple hecho de enunciarla. Debemos tener en cuenta que la autonomía de la inteligencia artificial sigue dependiendo del componente humano que la diseña y la usa.