Tribuna

Nacho García, profesor de Lengua y Literatura

Inteligencia artificial, ¿oportunidad o amenaza?

¿Podría la inteligencia artificial (IA) aprobar un examen de Selectividad? Respuesta: uno no, todos. Inquietante

 Inteligencia artificial, ¿oportunidad o amenaza?

Foto: EXTRA JAÉN

Inteligencia artificial.

¿Podría la inteligencia artificial (IA) aprobar un examen de Selectividad? Respuesta: uno no, todos. Inquietante.

Como docente, he tenido la oportunidad de corregir una prueba realizada por una aplicación  software, un chatbot llamado “ChatGPT” y el caso es que aprobó. En el momento que se programe a la máquina acotando mejor la información requerida y facilitando el acceso a más datos de ciertas webs y metabuscadores, no sólo aprobará, sino que los resultados serán sobresalientes. ¿Perturbador?



La Inteligencia Artificial no es una novedad, lleva más de sesenta años desarrollándose. La IA nació para imitar el comportamiento humano y realizar acciones similares, emulando la inteligencia natural. En los últimos treinta años, gracias al desarrollo de la informática (sobre todo de las reglas de programación)  y la aparición de internet, su evolución ha sido asombrosa debido a la combinación de distintos saberes de la ciencia cognitiva, la lingüística, la psicología, la neurociencia y las matemáticas. Su repercusión empieza a ser brutal en numerosos ámbitos de la sociedad, de hecho, estamos viviendo la cuarta revolución industrial, la llamada "Industria 4.0", con la irrupción desmedida del  Big Data, el Internet de las Cosas (IoT) y la Cloud Computing. Aunque no hayamos sido conscientes ni nos hayamos percatado de este crecimiento, sí que nos hemos beneficiado de su uso, tanto directamente, p. ej. en el comercio electrónico (quién no ha recibido un paquete de alguna distribuidora en menos de 24-48 horas), en la tecnología (desbloqueo facial de móviles o navegación GPS); en medicina (avances en diagnóstico, cirugías y tratamientos); como indirectamente, en banca,  en marketing y publicidad, en automovilismo, etc.

Como todo en la vida, hay quienes interpretan esta revolución como una amenaza y quienes la conciben como una oportunidad. Es un debate abierto.

Unos, insisten sobre todo en la amenaza que la computación cuántica supone para nuestra privacidad y la exposición a la vigilancia masiva, cuestionando la ciberseguridad, así como limitaciones éticas relativas a los valores y derechos humanos. Señalan que hace tiempo que nuestros datos están en manos de los algoritmos de Microsoft, Google, Apple, IBM o Amazon, es decir, en manos de tipos como Gates, Pichai, Cook, Musk o Bezos, o sea, expuesta a Siri, Alexa o Cortana. Vaticinan la claudicación del ser humano ante las máquinas y auguran un futuro apocalíptico con robots adueñándose del mundo, como en su día escribieran Isaac Asimov o Stephen King.

Otros, arguyen que la IA está ayudando a resolver y resolviendo problemas globales como el hambre y ciertas enfermedades o el cambio climático, así como la pobreza, optimizando los recursos y reduciendo desigualdades. Además, la IA facilita la automatización de procesos (asumiendo tareas repetitivas y rutinarias o acciones arriesgadas), el control de producción (aportando precisión y reduciendo errores), el análisis de datos, la predicción de problemas y la mejora de la toma de decisiones. La IA puede proporcionar ventajas notables en casi todos los ámbitos humanos: salud, alimentación, entretenimiento, ocio y cultura.

La clave reside en el enfoque humanista de la IA frente a la visión reduccionista y materialista del capitalismo, o sea, la IA no debería aspirar a reemplazar o suplantar a los humanos, sino a complementar y mejorar sus capacidades y contribuciones. En este sentido, ya la UNESCO en 2021, consciente de la peligrosa omnipresencia y progresiva dependencia de esta tecnología, promulgó la primera norma mundial sobre la ética de la IA. Es un marco que establece valores y principios comunes para construir una infraestructura jurídica que garantice el beneficio para la humanidad y que las transformaciones digitales promuevan los derechos humanos y contribuyan a la consecución de los ODS, abordando cuestiones relativas a la transparencia, la privacidad de datos, el trabajo, la atención sanitaria, la cultura, el medio ambiente o la economía.

Ciñéndonos al ámbito educativo, la IA lleva presente muchos años a través de diversas plataformas de aprendizaje on line (e-learning), de chatbots o tutores inteligentes o de la robótica educativa. El cambio estaba siendo gradual, con la incorporación progresiva de las nuevas tecnologías en las aulas y la implantación de nuevas metodologías, hasta la explosión de la pandemia y la “implosión” y colapso posteriores. Todo cambió.  El mundo real se está convirtiendo en virtual.  Séneca, Socratic, Moodle, Classroom, Thinkster Math, Brainly, Gradescope, ELSA, PRISMA, DEEPL, Wikipedia forman parte de un ecosistema virtual del que las personas reales, docentes y discentes, formamos parte. Por un lado, hay quienes piensan que estas herramientas y entornos digitales promueven el conocimiento, estimulan la creatividad y facilitan el proceso de enseñanza-aprendizaje, así como su evaluación (siempre que sea positiva, claro). Por otro lado, hay quienes piensan que se está anquilosando la capacidad de pensamiento y cualquier tipo de reflexión, que se está anulando la voluntad y favoreciendo la procrastinación, que se está deshumanizando la educación, fomentando una progresiva dependencia inconsciente de los algoritmos.

La clave reside en el tiempo. La educación y la formación requieren de tiempo, esfuerzo y continuidad, por tanto precisan de la paciencia de la intervención humana porque el cerebro no evoluciona biológicamente tan rápido como para adaptarse a tantos cambios y entenderlos. La mente humana funciona de maneras misteriosas que ninguna ciencia ni IA podrán comprender. A una mente humana sólo la puede comprender otra mente humana. La intuición, los sueños, la imaginación, los sentimientos, las emociones, las interacciones, los comportamientos erráticos no se pueden reducir a competencias, sujetas a descriptores operativos y factorizadas en estándares. Huyamos del aserto “competence without comprehension”, de Daniel Dennett, o sea, del desarrollo de competencias sin comprensión, es decir, no eduquemos para conseguir personas con perfiles de salida altamente competentes, pero con una falsa autonomía, que vivan sin entender que existen ni por qué. Para eso ya están las máquinas.