El Efecto Pigmalión en la Era de la IA: ¿Cómo Nuestras Expectativas Moldean la Tecnología y Viceversa?
En el futuro, la clave no estará solo en la inteligencia de las máquinas, sino en la inteligencia y conciencia con la que los humanos elegimos interactuar con ellas. ¿Qué tipo de "inteligencia" estamos realmente cultivando? La respuesta está en nuestras manos, y en las expectativas que elijamos alimentar.

Psicólogo George Taborda
A mediados de este año escolar, mientras ayudaba a uno de mis estudiantes con su tarea de matemáticas, noté algo curioso. Estaba frustrado con una aplicación de resolución de problemas que, según él, "nunca le entendía bien". Intenté usarla yo, y al principio, sentí lo mismo. Pero, luego, con una pizca de paciencia y, debo confesar, la convicción de que la app "debía"; funcionar, empecé a formular las preguntas de otra
manera, a ser más preciso, ¡y la aplicación de repente parecía casi leer mi mente! No es que la app cambiara, era mi expectativa y mi forma de interactuar con ella lo que se había ajustado.
¿Alguna vez te has parado a pensar si esa aplicación de mapas conocida como GPS te llevó por el camino más rápido porque confiaste plenamente en ella? ¿O si el asistente de voz de tu teléfono parece entenderte mejor cada día que pasa? En un mundo cada vez más entrelazado con la Inteligencia Artificial (IA), es fácil ver a estas tecnologías como meras herramientas que responden a nuestros comandos. Pero ¿y si te dijera que nuestras propias expectativas, nuestras creencias sobre lo que estas máquinas pueden o no hacer, están moldeando su desarrollo y su desempeño de formas que apenas comenzamos a comprender?
Como psicólogo y Docente, siempre he creído en el inmenso poder de nuestras expectativas. En la psicología, existe un fenómeno fascinante conocido como el Efecto Pigmalión. Este principio, que toma su nombre de un antiguo mito griego, postula que las altas expectativas que tenemos sobre alguien pueden conducir a un mejor
rendimiento de esa persona, y viceversa. Es, en esencia, una profecía autocumplida: si creemos que alguien es capaz, es más probable que esa persona demuestre esa capacidad (Rosenthal & Jacobson, 1968).
Pero ¿de dónde viene el nombre "Pigmalión";? La leyenda cuenta la historia de Pigmalión, un escultor de Chipre que creó una estatua de marfil tan hermosa y perfecta que se enamoró perdidamente de ella. Su anhelo y amor eran tan intensos que la diosa Afrodita, conmovida por su devoción, le concedió el deseo y le dio vida a la estatua, a la que Pigmalión llamó Galatea. Este mito ilustra bellamente cómo una profunda creencia y expectativa pueden dar forma a la realidad.
El término fue acuñado y estudiado científicamente en la década de 1960 por los psicólogos Robert Rosenthal y Lenore Jacobson, quienes demostraron en experimentos educativos cómo las expectativas positivas de los maestros sobre sus alumnos podían llevar a un aumento real en el rendimiento académico de estos estudiantes (Rosenthal & Jacobson, 1968).
Ahora, volviendo a nuestro presente digital, ¿es posible que este efecto trascienda las interacciones humanas y se extienda a la relación entre nosotros y la IA? En este artículo, explicaremos cómo nuestras expectativas no solo influyen en cómo interactuamos con la inteligencia artificial, sino que también están, de manera sutil pero
profunda, moldeando la propia evolución de la tecnología, y cómo, a su vez, la IA está redefiniendo lo que esperamos de nosotros mismos y del mundo.
El Efecto Pigmalión en la Creación de la IA: Los Desarrolladores y sus Expectativas
Una vez que entendemos que nuestras expectativas pueden influir en el rendimiento humano, la pregunta lógica es: ¿podría pasar algo similar con la tecnología que nosotros mismos creamos? La respuesta es un rotundo sí. El Efecto Pigmalión no se limita a las aulas o los equipos de trabajo; se extiende, de forma casi invisible, a los
laboratorios y centros de desarrollo donde la Inteligencia Artificial toma forma.
Imaginen por un momento a un equipo de ingenieros diseñando un nuevo asistente de IA. Si estos creadores tienen la firme convicción de que su IA será capaz de comprender el lenguaje humano con una precisión asombrosa, es probable que inviertan más tiempo en refinar algoritmos de procesamiento de lenguaje natural, en
buscar conjuntos de datos masivos y diversos, y en ajustar cada parámetro para lograr esa meta. Sus altas expectativas impulsan la innovación y la búsqueda de soluciones más sofisticadas. Por otro lado, si la expectativa inicial es que la IA solo será una herramienta básica para tareas repetitivas, el desarrollo podría ser menos ambicioso y el resultado, consecuentemente, más limitado. La visión de los creadores se
convierte en el plano invisible que guía la construcción de la IA.
Pero hay un lado más complejo en esta moneda: los sesgos humanos. Los desarrolladores, al igual que cualquier persona, tienen sus propias experiencias, culturas y, sí, sus propios prejuicios, conscientes o inconscientes. Cuando una IA se entrena con datos recopilados por humanos o se programa bajo la dirección de un equipo con ciertas inclinaciones, estos sesgos pueden infiltrarse y arraigarse en el sistema. Es una manifestación clara del Efecto Pigmalión: la IA, al "aprender" de lo que le proporcionamos y de las directrices que le damos, refleja las expectativas (y a veces las limitaciones) de sus creadores.
Un ejemplo palpable de esto lo vemos en sistemas de IA diseñados para reconocimiento facial o para la evaluación de perfiles de riesgo. Si los datos con los que se entrenó la IA contenían una representación desproporcionada de ciertos grupos demográficos, o si los criterios de "éxito" se basan en patrones específicos, la IA podría desarrollar sesgos en sus predicciones. No es malicia de la máquina; es el reflejo de
las expectativas y los datos (sesgados) que se le proporcionaron. La IA, en esencia, cumple la "profecía" que le fue inculcada por sus arquitectos, reproduciendo patrones que, a veces, queremos evitar (O'Neil, 2016).
Este fenómeno nos obliga a una reflexión profunda: ¿qué estamos esperando realmente de la IA? ¿Estamos siendo lo suficientemente conscientes de los "lentes", a través de los cuales la construimos? Porque al final del día, lo que creemos que la IA debe ser, o lo que creemos que puede lograr, se manifiesta directamente en la
tecnología que usamos a diario.
La IA Moldeando Nuestras Expectativas y Comportamientos: El Pigmalión Invertido
Si bien es cierto que nuestras expectativas y sesgos moldean la IA, el fenómeno del Efecto Pigmalión en la era digital no es una calle de un solo sentido. La relación es, en realidad, bidireccional. Así como nosotros difundimos nuestras visiones en la tecnología, la Inteligencia Artificial, a su vez, ejerce una influencia considerable sobre
nuestras propias expectativas, comportamientos y hasta nuestras capacidades cognitivas. Podríamos llamarlo el "Pigmalión Invertido", la IA, al mostrarnos lo que puede hacer, redefine sutilmente lo que esperamos de nosotros mismos y del mundo que nos rodea.
Pensemos en el día a día. Cuando un asistente de voz nos da una respuesta instantánea a casi cualquier pregunta, o cuando un sistema de recomendación nos sugiere con asombrosa precisión la próxima película que nos encantará, nuestras mentes empiezan a recalibrarse. Nos acostumbramos a la inmediatez y a la
personalización. Esto se traduce en una expectativa creciente de que la información y las soluciones deben ser rápidas, eficientes y hechas a nuestra medida. Si antes buscábamos información en enciclopedias o esperábamos la recomendación de un amigo, ahora esperamos que el conocimiento y las sugerencias lleguen a nosotros con un par de clics o una pregunta. Esta nueva "normalidad" tecnológica puede hacer que
desarrollemos menos paciencia con procesos más lentos o menos optimizados, incluso en interacciones humanas.
Más allá de la inmediatez, el uso constante de la IA también puede empezar a afectar nuestras propias habilidades. Consideremos los correctores gramaticales o los sistemas de autocompletado: son herramientas maravillosas que nos ahorran tiempo y mejoran nuestra comunicación escrita. Sin embargo, si dependemos excesivamente de ellos, ¿estamos, quizás, ejercitando menos nuestras propias capacidades de ortografía,
gramática o incluso de pensamiento crítico en la redacción? La IA se vuelve tan eficiente en ciertas tareas que nuestras propias habilidades para realizarlas, al no ser tan exigidas, podrían atrofiarse ligeramente. Es como si la máquina, al ser "tan inteligente", nos hiciera esperar menos de nuestra propia inteligencia en ese ámbito.
Además, la IA está redefiniendo lo que entendemos por "inteligencia". Cuando vemos que una IA puede generar textos coherentes, crear imágenes realistas o componer música, ¿cambia esto nuestra percepción de lo que es la creatividad o la capacidad intelectual? Es probable que sí. Comenzamos a esperar un nivel de sofisticación y eficiencia que antes era impensable, no solo de las máquinas, sino también de otros sistemas e incluso de las personas. La vara de lo "inteligente" o lo "capaz" se eleva, influenciada por las proezas de la IA.
En resumen, la IA no es un espejo pasivo de nuestras expectativas; es un agente activo que nos enseña, nos habitúa y, en el proceso, moldea nuestras propias nociones de lo posible y lo deseable. Es una danza compleja donde la tecnología y la humanidad se influyen mutuamente de formas que apenas estamos comenzando a descifrar.
Desafíos y Reflexiones: Navegando la Interacción Humano-IA con Consciencia
Entender que el Efecto Pigmalión opera en la relación entre humanos e Inteligencia Artificial, y que lo hace en ambas direcciones, nos impone una responsabilidad crucial: la de navegar esta interacción con consciencia. Ya no podemos ver a la IA como una entidad neutral o meramente reactiva; es un ente dinámico que se nutre de nuestras expectativas y, a su vez, las altera.
El primer gran desafío es la necesidad de una conciencia crítica. Es vital que tanto los desarrolladores como los usuarios finales comprendamos el poder de nuestras expectativas. Para los creadores, esto significa un examen constante de los sesgos inherentes en los datos y los algoritmos, y un esfuerzo consciente por diseñar IAs que
sean equitativas, transparentes y que reflejen una visión humana amplia y constructiva, no solo la de un grupo limitado. Implica preguntarse: ¿qué tipo de "inteligencia" queremos realmente fomentar? ¿Qué valores estamos codificando en estas máquinas?
Para nosotros, los usuarios, esta conciencia se traduce en una relación más informada y menos pasiva con la tecnología. No se trata de desconfiar, sino de comprender. Al usar un sistema de IA, deberíamos preguntarnos: ¿estoy siendo excesivamente crédulo ante lo que me ofrece? ¿Estoy dejando que la inmediatez o la conveniencia de la IA atrofien mis propias capacidades de pensamiento crítico, resolución de problemas o interacción humana? Cultivar expectativas realistas es fundamental: la IA es una herramienta poderosa, pero no es infalible ni es un sustitutode la complejidad humana.
En este contexto, la educación juega un papel insustituible. Desde las aulas de primaria hasta la formación continua de adultos, necesitamos enseñar no solo cómo usar las herramientas de IA, sino, más importante aún, cómo pensar críticamente sobre ellas. Esto incluye comprender cómo funcionan, cuáles son sus limitaciones, y cómo pueden estar influenciadas por los datos y las intenciones humanas. Nuestro rol como docentes de es clave aquí: enseñar a los jóvenes a razonar lógicamente y a no aceptar la información sin cuestionarla es una habilidad transferible directamente a la interacción con la IA.
En última instancia, el objetivo no es temer a la IA, sino fomentar una sinergia donde la tecnología potencie lo mejor de la humanidad, y viceversa. Esto requiere un diálogo constante, una revisión ética y un compromiso continuo para que las expectativas que depositamos en la IA sean aquellas que impulsan el progreso y el
bienestar colectivo, no la reproducción de nuestros prejuicios o la disminución de nuestras propias capacidades.
Conclusión: Hacia una Sinergia Inteligente y Consciente
La relación entre los seres humanos y la Inteligencia Artificial es mucho más profunda de lo que parece a primera vista. Al igual que en el antiguo mito de Pigmalión, nuestras creencias y expectativas tienen el poder de dar vida y forma a lo que creamos. En la era digital, esto se traduce en que la IA que construimos y con la que interactuamos es, en gran medida, un reflejo de nuestras visiones, esperanzas y hasta de nuestros
sesgos.
Pero este no es un camino de una sola dirección. La IA, con sus capacidades cada vez más sofisticadas, también está redefiniendo lo que esperamos de la tecnología y, quizás lo más importante, lo que esperamos de nosotros mismos. Nos ha acostumbrado a la inmediatez y a la eficiencia, y ha expandido nuestras nociones de lo
que es posible en el ámbito de la inteligencia y la creatividad.
Navegar esta compleja interacción requiere consciencia y educación. Es fundamental que tanto los desarrolladores como los usuarios finales comprendan el poder bidireccional del Efecto Pigmalión en este nuevo contexto. Al cultivar expectativas realistas y al fomentar un pensamiento crítico sobre cómo la IA se construye y nos afecta, podemos asegurar que esta poderosa tecnología se convierta en una verdadera aliada para el progreso y el bienestar humano.
En el futuro, la clave no estará solo en la inteligencia de las máquinas, sino en la inteligencia y conciencia con la que los humanos elegimos interactuar con ellas. ¿Qué tipo de "inteligencia" estamos realmente cultivando? La respuesta está en nuestras manos, y en las expectativas que elijamos alimentar.
Referencias
O´Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and
Threatens Democracy. Crown.
Rosenthal, R., & Jacobson, L. (1968). Pygmalion in the Classroom: Teacher
Expectation and Pupils' Intellectual Development. Holt, Rinehart & Winston. 1
Para recibir en tu celular esta y otras informaciones, únete a nuestras redes sociales, síguenos en Instagram, Twitter y Facebook como @DiarioElPepazo
El Pepazo