Somos una sociedad que ya comenzó a pensar sobre el mundo conectado. Este año será recordado como el inicio de la era de la inteligencia artificial.
La realidad es que desde hacía mucho tiempo esta tecnología estaba presente en nuestras vidas casi por el simple hecho de ser usuarios de dispositivos y plataformas, buscadores y redes. Pero tenemos que reconocer que Chat GPT logró que seamos capaces de identificarla y que comencemos a hacernos preguntas sobre una IA que hasta ese momento era ubicua e invisible para la mayoría.
A diferencia de otros cambios e innovaciones de los últimos treinta años como la misma www, las redes sociales y los teléfonos inteligentes, esta vez, la sociedad estaba algo más preparada: son muchas las personas que hoy hablan de privacidad, sospechan que “el teléfono las espía”, tienen incorporados conceptos como fake news y las “sugerencias del algoritmo”. Si bien con la IA las fronteras de la ciudadanía digital se corrieron y los desafíos que debemos enfrentar son más complejos, somos una sociedad que ya comenzó a pensar sobre el mundo conectado.
Hoy, después de un año de convivir con los sistemas de IA, las emociones iniciales tanto positivas como pesimistas se aquietaron un poco. Ya sabemos que no es mágica, también que su nombre es engañoso: aprendimos a diferenciar entre “inteligencia” y “comportamiento inteligente”, sabemos que procesar, predecir y generar información no es lo mismo que pensar, razonar, sentir; que la idea de que la IA nos va a controlar a los humanos no se vislumbra en el horizonte cercano.
Avanzamos, sí, pero aún falta mucho para dimensionar y conocer los límites de la cultura algorítmica en la que vivimos. El potencial de la inteligencia artificial para gestionar y resolver problemas climáticos o predecir catástrofes naturales, es incuestionable, pero al mismo tiempo cada respuesta de ChatGPT y cada proceso de IA genera una importante huella energética, un consumo que conlleva un impacto ambiental enorme. Con sistemas de IA se pueden detectar noticias falsas en cuestión de segundos, pero – el lado b – nunca fue tan fácil crearlas y difundirlas.
La IA generativa puede potenciar la creatividad y producción de contenidos de nuestros estudiantes con sistemas de composición de textos, imágenes, videos o música, pero también – mal gestionada – puede ser autónoma y así atentar contra el desarrollo cognitivo de las infancias. La IA ayuda a encontrar niños y niñas desaparecidos en algunos países, pero esa misma tecnología es la que permite la vigilancia, la pérdida de privacidad y la conexión permanente de ellos y ellas en redes y plataformas.
Queda mucho debate sobre sus luces y sombras, sobre su yin y yang. A medida que la IA se expande, también lo hace la necesidad de garantizar que los aspectos positivos nos beneficien a todos y que los riesgos no socaven los derechos de la ciudadanía y especialmente de niños, niñas y adolescentes.
A un año de la irrupción de ChatGPT, si algo sabemos es que no es magia ni es ciencia ficción. También que llegó para quedarse. Frente a esta realidad la clave es educar: posicionar a los y las estudiantes en el mando, con capacidades para preguntar a los sistemas de IA, evaluar, iterar, discernir, decidir y considerar desafíos éticos. Estas habilidades son necesarias hoy e imprescindibles para su vida digital futura.
Mariela Reiman es Licenciada en Educación en Levinsky College of Education, Tel Aviv, Israel. Es socia fundadora de la Asociación Chicos.net y actual Directora de Programas. Dirige proyectos de alfabetización digital e inclusión en tecnología y educación para Argentina y Latinoamérica. Cuenta con una vasta experiencia en el desarrollo de contenidos multimediales e interactivos para todos los niveles. Coordina equipos de trabajo multidisciplinarios para generar soluciones innovadoras.