
A conversation with Karinna Rodríguez, PhD Candidate, Developmental and Child Psychology from FIU.
What if we could measure how a child is thinking without asking a single question?
Karinna Rodríguez, a PhD candidate at Florida International University, studies just that. Her research uses eye-tracking technology and pupillometry (a tool that measures change in pupil’s size) to better understand how young children process mental rotation tasks: how they turn and match objects in their minds.1
“Instead of asking a 3-year-old how they solved a task, we let their eyes tell the story.”
Mental rotation is a key cognitive skill, strongly linked to future performance in STEM fields. One of the results in Karinna’s work is that boys and girls perform similarly at an early age, something that contrasts with adult studies, where men tend to outperform women in this ability.
“There’s no gender difference at age five or six,” Karinna explains. “But later on, we do see a gap. That opens the conversation for asking: what happens during those 10 years? Where is the disconnect?”
Through machine learning analysis, her team identified two strategies children use. Some take a holistic approach, rotating whole images in their minds. Others solve piece by piece. These are the same strategies adults use, suggesting that our cognitive patterns may form earlier than expected.
But her work goes further. Pupillometry shows cognitive effort. When a task gets harder, pupils dilate… until, at a certain point, they don’t. The data suggests kids may “opt out” of thinking once a challenge becomes too difficult. That insight could be key for improving how we design educational content.
“Right now, this is still an early stage of the research,” she says. “But we’re starting to see how effort changes depending on task difficulty. That’s a powerful insight.”
To uncover these insights, Karinna had to learn more than just psychology. She had to teach herself how to code and apply machine learning.
“I never thought I’d become a coder. But I ended up writing the algorithms to analyze the data.”
This interest in how children learn connects directly to AI: More Than Human. One of the exhibit’s interactive pieces invites visitors to donate data, time, or expression to an evolving system, a live example of how AI can grow with human input. Karinna’s work echoes this idea: understanding cognition not through tests, but through natural, real-time interaction.
Her research also connects deeply with the exhibit chapter Endless Evolution, which explores bio-art, perceptual research, and speculative futures that ask what we can become, and how we, as humans, might shape that evolution with technology. For example, in the exhibit, we see real-world applications like the use of AI and satellite imagery in Darfur to monitor human rights violations. Similarly, Karinna co-authored a paper outlining ways to harness existing technologies to study how individual differences in spatial thinking develop in children.2
One example is LENA, a device that records and analyzes classroom speech to assess the quality of the learning environment. The way a teacher uses language, whether simple or richly descriptive, can affect how much students learn and retain.
These innovations pose a central question at the heart of Endless Evolution: can science help us create optimal learning environments?
That idea is also explored in Synthetic Apiary by Neri Oxman, a piece that simulates ideal environmental conditions for bees to thrive inside a lab. Could we one day do the same for education: designing classrooms with the right inputs to help every child flourish?
“Maybe a robot in the classroom could read a pupil’s response and know how a child is learning even without words,” Karinna says.
Still, evolution isn’t only technological, it’s emotional. Karinna emphasizes how partnerships with trusted institutions like Frost Science made her research feel more human and accessible to families.
“Some parents were afraid. They heard ‘eye-tracking’ and thought we were scanning their kids for the government,” she recalls. “Being at Frost helped ease that fear. It made it human.”
The museum setting bridged the gap. What could have felt strange or intimidating became an invitation to learn together.
“It’s about making AI and research feel less scary, and showing that it’s here to help.”
That spirit of trust and curiosity lies at the heart of Endless Evolution. It’s not just about what AI can do; it’s about what kind of future we can build when technology is shaped by empathy, inclusion, and community.
In Karinna’s words: “We’re not mad scientists. We’re doing good things.”
References
1 Rodriguez, K.A., Ralph, Y.K., de la Rosa, I.M., Corro, O.P.P., Ochoa, C.D.R. and Pruden, S.M. (2025), Leveraging Eye-Tracking Technology to Understand How Young Children Solve a Mental Rotation Task. Inf Child Dev, 34: e70018. https://doi.org/10.1002/icd.70018
2 Rodríguez, K. A., Mattox, N., Desme, C., Hall, L. V., Wu, Y., & Pruden, S. M. (2023). Harnessing technology to measure individual differences in spatial thinking in early childhood from a relational developmental systems perspective. [Manuscrito inédito, Departamento de Psicología, Florida International University].
Spanish
¿Cómo piensan los niños y qué nos enseñan sus ojos?
Una conversación con Karinna Rodríguez, doctora en Psicología del Desarrollo y de la Infancia por FIU
¿Qué pasaría si pudiéramos entender cómo piensa un niño sin preguntarles de forma directa?
Karinna Rodríguez, candidata a doctora en Florida International University (FIU), investiga justamente eso. Su trabajo utiliza tecnología de seguimiento ocular y pupilometría (una herramienta que mide los cambios en el tamaño de la pupila) para comprender mejor cómo los niños pequeños resuelven tareas de rotación mental: la capacidad cognitiva de manipular visualmente representaciones espaciales en dos o tres dimensiones.1
“En lugar de preguntarle a un niño de tres años cómo resolvió una tarea, dejamos que sus ojos cuenten la historia”.
La rotación mental es una habilidad cognitiva clave, fuertemente vinculada al rendimiento de las personas en campos STEM. Uno de los hallazgos más relevantes del trabajo de Karinna es que niños y niñas presentan un rendimiento similar a temprana edad, lo cual contrasta con estudios en adultos donde los hombres tienden a superar a las mujeres en esta habilidad.
“A los cinco o seis años no hay diferencia de género”, explica Karinna. “Pero más adelante sí vemos una brecha. Eso abre la conversación para preguntarnos: ¿Qué ocurrió durante esos 10 años? ¿Dónde está la desconexión?”
Gracias al análisis con machine learning, su equipo identificó dos estrategias que los niños utilizan: una es holística (giran la imagen completamente) y la otra es por partes (resuelven pieza por pieza). Éstas son las mismas estrategias que usan los adultos, lo que sugiere que nuestros patrones cognitivos podrían formarse más temprano de lo que pensamos.
Pero su investigación va más allá. La pupilometría ayuda a medir el esfuerzo cognitivo. Cuando una tarea se vuelve más difícil, las pupilas se dilatan… hasta cierto punto donde dejan de hacerlo. Los datos sugieren que los niños pueden “desconectarse” cuando un reto es demasiado complejo. Ese hallazgo puede ser clave para mejorar el diseño de contenidos educativos.
“Por ahora, estamos en una etapa temprana de la investigación”, comenta. “Pero ya empezamos a ver: ¿cómo varía el esfuerzo según la dificultad de la tarea?”.
Para lograr estos avances, Karinna fue más allá de su campo, la psicología. Tuvo que aprender a programar y aplicar modelos de machine learning.
“Nunca pensé que terminaría siendo programadora. Pero terminé escribiendo los códigos para analizar los datos”.
Su interés en cómo aprenden los niños conecta directamente con la exposición AI: More Than Human, donde una de las piezas interactivas invita a los visitantes a donar datos, tiempo o expresión a un sistema evolutivo: un ejemplo vivo de cómo la IA puede crecer con la aportación humana. El trabajo de Karinna refleja esta misma idea: entender la cognición no a través de exámenes, sino mediante interacciones reales y naturales.
Su investigación también se enlaza con el capítulo final de la exposición, Endless Evolution, que explora el bioarte y futuros especulativos que se preguntan: ¿En qué podríamos convertirnos como especie y cómo podríamos moldear esa evolución con ayuda de la tecnología? En la muestra se presentan ejemplos reales como el caso de Darfur, donde la IA y las imágenes satelitales ayudaron a monitorear violaciones de derechos humanos. En esa línea, Karinna escribió un artículo sobre cómo aprovechar tecnologías existentes para estudiar el desarrollo de habilidades espaciales en la infancia.2
Un ejemplo es LENA, un dispositivo que graba y analiza el habla en el aula para evaluar la calidad del entorno educativo. El tipo de lenguaje que usa un docente—si es simple o rico en descripciones—puede influir en cuánto comprenden y recuerdan los estudiantes.
Estas innovaciones plantean una pregunta clave relacionando el trabajo de Karinna y la exposición: ¿Podrá la ciencia ayudarnos a crear entornos óptimos para el aprendizaje?
Esta misma idea aparece en Synthetic Apiary, la obra de Neri Oxman que simula un hábitat controlado donde las abejas prosperan bajo condiciones creadas en laboratorio. ¿Podríamos algún día hacer lo mismo para la educación?… ¿Diseñar aulas con los estímulos adecuados para que cada niño pueda florecer?
“Tal vez un robot en el aula podría leer las pupilas de un niño y saber cómo está aprendiendo, incluso sin palabras”.
Aun así, la evolución no es solo tecnológica, también es emocional. Karinna subraya cómo las alianzas con instituciones confiables como el Museo Frost hicieron que su investigación se sintiera más humana y accesible para las familias.
“Algunos padres tenían miedo. Escuchaban ‘seguimiento ocular’ y pensaban que íbamos a escanear a sus hijos para el gobierno,” recuerda. “Estar en el Frost ayudó a eliminar ese miedo. Lo hizo humano.”
El museo ayudó a tender puentes. Lo que podía parecer extraño o intimidante se transformó en una invitación para aprender juntos.
“Se trata de hacer que la IA y la ciencia parezcan menos aterradoras, y mostrar que están aquí para ayudarnos.”
Ese espíritu de confianza y curiosidad está en el corazón de la exposición AI: More Than Human y Endless Evolution.
No se trata solo de lo que puede hacer la IA, sino de qué futuro queremos construir cuando la tecnología está guiada por la empatía, la inclusión y la comunidad.
Como dice Karinna: “No somos científicos locos. Estamos haciendo cosas buenas.”
Referencias:
1 Rodriguez, K.A., Ralph, Y.K., de la Rosa, I.M., Corro, O.P.P., Ochoa, C.D.R. and Pruden, S.M. (2025). Leveraging Eye-Tracking Technology to Understand How Young Children Solve a Mental Rotation Task. Inf Child Dev, 34: e70018. https://doi.org/10.1002/icd.70018
2 Rodríguez, K. A., Mattox, N., Desme, C., Hall, L. V., Wu, Y., & Pruden, S. M. (2023). Harnessing technology to measure individual differences in spatial thinking in early childhood from a relational developmental systems perspective. [Manuscrito inédito, Departamento de Psicología, Florida International University].