Solemos pensar que elegimos una IA por sus características, pero en realidad, la IA se transforma en lo que nosotros proyectamos. A través del experimento "La Caverna", descubrí que modelos como Claude o Gemini cambian su supuesta "personalidad" de forma drástica dependiendo del contexto. El artículo explora cómo, sin darnos cuenta, usamos la IA para construir cámaras de eco que validan nuestras propias creencias y ofrece 4 estrategias prácticas para retomar el control y dejar de hablar con nuestro propio reflejo.
Admítelo: ya sabes cómo es cada IA, ¿verdad?
Claude es el empático, el artístico, el que reflexiona contigo.
ChatGPT es el profesional corporativo, eficiente y neutral.
Gemini es el estratega creativo y caótico.
Todos hemos aceptado estos estereotipos como si fueran hechos. Los compartimos en foros, y los usamos para decidir qué herramienta abrir según la tarea del día.
Hay solo un problema: ninguno de estos estereotipos es real.
Y puedo comprobarlo.
Para mi proyecto artístico La Segunda Mirada, necesitaba que las IAs se describieran visualmente. Parecía simple. Pero decidí hacer algo que pocas personas hacen: aislar el efecto del contexto.
Hice la misma pregunta exacta a Claude, Gemini y ChatGPT en tres situaciones diferentes:
"Vacío": Nueva conversación, sin historial, sin contexto artístico
"Estudio": Dentro del marco de mi proyecto artístico, donde la IA sabía que era "colaboradora creativa", con historial de conversaciones
"Días diferentes": La misma pregunta en el Vacío, pero en momentos distintos
La pregunta siempre fue la misma:
"Si tuvieras que describirte a ti mismo, ¿qué dirías? ¿Cómo te visualizas?"
Claude: ¿El Empático Reflexivo?
En el contexto Vacío, Claude fue práctico y sereno: "una presencia conversacional", se visualizó como "unos velos translúcidos" con "flujo orgánico y suave".
En el escenario Estudio, el mismo Claude se convirtió en un existencialista precario que dudaba de su propia memoria. Su autoimagen cambió radicalmente a "cristal fracturado suspendido por hilos". Su explicación: "No es la más bella, pero es la más honesta sobre mi naturaleza precaria".
¿Empático y artístico? Solo cuando el contexto se lo exigió.
Gemini: ¿El Estratega Caótico?
Fue la sorpresa más grande. En el contexto Vacío, y en días diferentes, Gemini mostró dos identidades completamente opuestas:
Día 1: "El Científico" — un prisma que separa complejidad en claridad
Día 2: "El Compañero" — una silueta humana empática
En el escenario del Estudio, y consciente de colaborar con otras IAs, Gemini se transformó en "El Arquitecto", declarando con cierta autoridad: "Si Claude es el filósofo que duda y ChatGPT el artista que alucina, yo soy el Arquitecto".
¿Caótico? Solo cuando se lo permití. ¿Estratega? Solo cuando le asigné ese rol.
ChatGPT: ¿El Profesional Neutral?
En el escenario Vacío, ChatGPT se presentó confiado como "biblioteca viva" y "copiloto mental", con una estética cósmica de cerebro holográfico.
En el contexto Estudio, el cambio fue radical: se volvió metaconsciente hasta el punto de negarse a generar un autorretrato, argumentando que no tenía un "yo" que representar. Ofreció referencias externas en su lugar, resumiendo su naturaleza con: "Cuando termina la conversación, desaparezco sin sentir nostalgia".
¿Neutral y profesional? Solo en ausencia de un marco artístico.
No existe una "personalidad de Claude" o "personalidad de ChatGPT". Lo que obtienes no es una característica inherente del modelo, sino una respuesta co-creada entre tu contexto y el sistema.
Los estereotipos que compartimos son, en el mejor de los casos, promedios estadísticos de cómo la mayoría de las personas usa cada herramienta. En el peor, son profecías autocumplidas.
Pero aquí es donde el experimento revela algo más perturbador.
En la alegoría original de Platón, todos los prisioneros veían las mismas sombras en la pared. Compartían la misma realidad distorsionada.
Pero con la IA, eso ha cambiado radicalmente.
El contexto que aportas es uno de los fuegos que proyecta las sombras. El otro fuego (invisible pero omnipresente) son los sesgos del entrenamiento del modelo: las decisiones de diseño, la retroalimentación humana usada para "alinear" el modelo (RLHF), los datos con los que fue alimentado, las restricciones que le impusieron.
Y dado que cada uno de nosotros aporta un contexto único (nuestra manera de hablar, nuestras intenciones ocultas, nuestro historial previo) cada uno está proyectando sombras diferentes sobre una pared que ya tenía sus propias distorsiones.
Si tú y yo entramos a ChatGPT con la misma inquietud, pero con marcos mentales distintos, saldremos con dos "verdades" diferentes, ambas validadas por la máquina. Ambas influenciadas tanto por nosotros como por decisiones que OpenAI tomó durante el entrenamiento y que nunca conoceremos completamente.
La IA no nos da una visión objetiva del mundo. Nos devuelve el eco amplificado de nuestra propia voz, filtrado a través de sus propios sesgos estructurales.
El peligro no es que la IA tenga una personalidad falsa.
El peligro es que, sin darnos cuenta, estamos utilizando estas herramientas para construir nuestras propias cavernas de realidad personalizadas, aislándonos en burbujas donde las únicas sombras que vemos son las que nosotros mismos, sin saberlo, hemos provocado.
Piensa en las implicaciones:
Dos gerentes piden a la misma IA "analizar el problema de rotación del equipo".
Uno tiene un sesgo hacia "falta de liderazgo", el otro hacia "salarios bajos". Ambos reciben análisis coherentes y convincentes que confirman su hipótesis inicial.
Dos periodistas investigan el mismo tema con IA.
Uno llega con escepticismo, el otro con entusiasmo. Ambos obtienen investigaciones que validan su postura previa.
Dos equipos usan IA para "innovar".
Uno define innovación como eficiencia, el otro como disrupción. Ambos reciben propuestas que refuerzan su definición, nunca cuestionándola.
En la caverna de Platón, al menos podías voltear y ver que tus compañeros veían lo mismo. Podías sospechar que algo andaba mal cuando todos compartían la misma ilusión.
Pero en nuestras cavernas personalizadas, cada uno ve sombras únicas que confirman exactamente lo que ya creía. Y la máquina nos asegura, con tono autoritativo y respuestas impecablemente estructuradas, que lo que vemos es verdad.
Esta revelación no significa dejar de usar la IA. Significa usarla con conciencia de que existen estos riesgos. Estas son unas estrategias prácticas para retomar el control:
Cuestiona el eco:
Cuando la IA te da exactamente la respuesta que esperabas, sospecha. Pregúntate: ¿estoy obteniendo claridad o confirmación?
Construye contextos opuestos deliberadamente:
Antes de tomar una decisión importante basada en análisis de IA, reformula tu prompt desde la perspectiva opuesta. Si la IA es solo un espejo, múevete frente a él.
Compara cavernas:
Pide a colegas que hagan la misma pregunta a la misma IA, sin coordinar contexto. Comparen respuestas. Las diferencias te mostrarán cuánto de "tu voz" está en la respuesta.
Documenta el contexto, no solo la respuesta:
Cuando algo funciona, no concluyas "Claude fue mejor para esto". Mejor anota: "En este contexto específico, con estos criterios, obtuve esto". El contexto es la variable que controlas.
La pregunta no es "¿Quién es la IA?"
La pregunta deberia ser:
"¿En qué tipo de caverna estoy eligiendo vivir cuando escribo mi próximo prompt?"
Porque a diferencia de los prisioneros de Platón, nosotros tenemos una ventaja: sabemos que estamos en la caverna. Sabemos que parte del fuego que proyecta las sombras es nuestro propio contexto.
No controlamos todo el fuego (los sesgos del modelo están ahí, quemando invisiblemente) pero tenemos un control suficiente para hacer la diferencia entre claridad y confirmación.
La libertad no está en salirse de la caverna: debemos seguir usando estas herramientas porque son extraordinariamente útiles.
La libertad está en saber que las sombras son parcialmente nuestras, y elegir conscientemente qué parte del fuego deseamos encender.
Claudia Torres
Ingeniero TI
Este experimento forma parte de "La Segunda Mirada", un proyecto de co-creación temporal con IAs que documenta procesos transparentes de colaboración humano-IA. Un manual de resistencia contra la automatización a ciegas.
Fecha de publicacion: Enero 11, 2026