«El uso de la inteligencia artificial y sus riesgos en la enseñanza de la escritura académica», por don Raúl Vallejo

La última sesión del diplomado de escritura académica, del que soy docente, versó sobre la inteligencia artificial, y su efecto en la enseñanza...
Imagen generada en Craiyon por don Raúl Vallejo C.

La última sesión del diplomado de escritura académica, del que soy docente, versó sobre la inteligencia artificial, IA, y su efecto en la enseñanza de la escritura académica. Durante el curso, como un proceso de experimentación, yo hice cada una de las tareas que envié a mis estudiantes con aplicaciones de IA como ChatGPT y Bard: párrafos narrativos, descriptivos, de comparación y contraste de 200 palabras; ensayos de argumentación y de comparación y contraste de 700 palabras.

Los objetivos de mi investigación fueron: 1) comprobar que todas las tareas del curso, tal como estuvieron concebidas, eran susceptibles de ser cumplidas en minutos mediante una aplicación de IA; 2) demostrar a los estudiantes del diplomado, que son docentes, la dificultad de detectar qué trabajo es redactado por IA y cuál no; y, 3) reflexionar, entre quienes participamos del diplomado, acerca de la honestidad académica y el uso de IA en el cumplimiento de tareas. La conclusión provisional es que, si bien la IA se ha convertido en un instrumento, inevitable e imprescindible, para el proceso de investigación, la IA también constituye un riesgo, de incalculables consecuencias, para el desarrollo de una destreza básica como escribir, si aquella reemplaza al estudiante en el ejercicio mismo de la escritura.

¿Qué es la inteligencia artificial?

Antes que nada, partamos de una definición general: «La inteligencia artificial, IA, es una rama de la informática que se ocupa de la creación de agentes inteligentes, que son sistemas que pueden actuar de forma autónoma para lograr sus objetivos. La IA se basa en la idea de que los sistemas informáticos pueden imitar la inteligencia humana en tareas como el razonamiento, el aprendizaje y la resolución de problemas».

La IA, entre otras, tiene una amplia gama de aplicaciones cotidianas: 1) asistentes virtuales como Siri o Alexa; 2) automóviles autónomos; 3) cirugía robótica; 4) reconocimiento facial; 5) instrumentos domésticos como el robot que aspira y trapea; 6) publicidad en función de los intereses del público escogido.

Riesgos de la inteligencia artificial

Si bien la IA es una tecnología que, sin duda, mejorará nuestras vidas, no hay que perder de vista algunos riesgos inherentes a su desarrollo actual y futuro: sesgo, privacidad, seguridad y otros.

Sesgo: dado que la IA se basa en datos, estos pueden ser sesgados y si los datos para entrenar un sistema de IA están sesgados esto puede generar resultados injustos o discriminatorios. En este sentido, «un sistema de IA utilizado para predecir la probabilidad de que una persona sea condenada por un delito podría estar sesgado en contra de las personas de color. Esto se debe a que los datos utilizados para entrenar el sistema podrían reflejar los sesgos de la aplicación de la ley, que históricamente ha sido discriminatoria contra las personas de color».

Privacidad: la IA requiere enorme cantidad de datos para su entrenamiento y desarrollo, que incluye información personal como datos de ubicación, datos biométricos y datos de salud; el uso de estos datos afecta la privacidad de las personas. Así, «un sistema de IA utilizado para rastrear los movimientos de las personas podría ser utilizado para espiar a las personas» y «un sistema de IA utilizado para identificar personas en imágenes podría ser utilizado para crear una base de datos de rostros de personas».

Seguridad: Dado que, en el momento actual, los sistemas de IA son vulnerables a los ataques cibernéticos, si un sistema de IA es atacado, podría ser utilizado para causar daño o para robar información. «Por ejemplo, un sistema de IA utilizado para controlar un vehículo autónomo podría ser atacado para causar un accidente. Un sistema de IA utilizado que opera un sistema de armas podría ser atacado para causar daños».

Además, se estima que el desarrollo de la IA, en un futuro cercano, generaría un crisis social por la pérdida de puestos de trabajo, ya que los sistemas de IA automatizarán tareas que, actualmente, son realizadas por las personas; asimismo, la IA tendría una peligrosa influencia en las decisiones humanas, lo que conduciría a una dependencia intelectual permanente y a la toma de decisiones erróneas; y, finalmente, su impacto en la sociedad conduciría a modificar la convivencia social y las prácticas democráticas tal como hoy las conocemos.

IA y escritura académica

¿Se asemeja el uso de la IA para la escritura al uso de la calcudora para resolver problemas matemáticos? Aún no estoy seguro de ello. Me parece que la calculadora es un auxiliar del estudiante para resolver problemas y que la IA es, en cambio, un reemplazo del estudiante para realizar un ejercicio de escritura. Si la IA puede escribir todos los ejercicios que se requieren para desarrollar la escritura académica, y, en este sentido, hacer las tareas del estudiante, ¿serían mayores los riesgos que los beneficios de usarla?

No quiero ser pesimista sin más. Los beneficios de la IA para que los estudiantes escriban de manera más eficiente y efectiva, ya está en uso. En primer lugar, «la IA puede ayudar a los estudiantes a encontrar información, a organizar sus ideas y a corregir errores. También puede ayudar a los estudiantes a aprender sobre diferentes estilos de escritura y a desarrollar su propio estilo». En segundo, «la IA puede ayudar a los profesores a evaluar la escritura de los estudiantes de manera más precisa y eficiente. Por ejemplo, la IA puede ayudar a los profesores a identificar errores gramaticales y de estilo, así como a proporcionar retroalimentación constructiva a los estudiantes».

Los riesgos, asimismo, ya se perciben, no solo como potenciales sino como problemas que, actualmente, nacen y se multiplican sin control. Y aquí es donde radica mi pesimismo en tanto docente. Del sesgo ya hemos hablado más arriba; aquí solo añadiremos lo nocivo que el sesgo, disfrazado de tecnología, puede resultar para los trabajos de investigación que terminarán cargados de prejuicios o normalizaciones ideológicas aceptadas por el establecimiento.

Dos son los problemas más graves del uso indebido de la IA durante el proceso de aprendizaje de la escritura académica. El primero, es el plagio: si la IA puede escribir las tareas, es decir los ejercicios que debe realizar quien está aprendiendo, es como si el estudiante le pidiera a alguien más que le haga su tarea: cumple con el deber, pero no aprende. El segundo, es la dependencia: el uso abusivo de la IA para realizar tereas terminará por suplantar a quien necesita desarrollar, justamente con la práctica de la propia escritura, las habilidades de la escritura académica.

Hay que tener consciencia de los riesgos potenciales de la IA en la escritura académica. Para minimizar estos riesgos, se recomienda: «a) utilizar la IA como una herramienta complementaria, no como un sustituto de la escritura humana; b) ser consciente de los sesgos potenciales de los datos utilizados para entrenar los sistemas de IA; y c) enseñar a los estudiantes sobre el plagio y cómo evitarlo». Adicionalmente, es indispensable tener claro el sentido de la honestidad académica y reflexionar sobre una verdad de perogrullo: si un estudiante me entrega un ejercicio hecho con IA y no por ella o por él, no es a mí a quien está engañando sino a sí mismo.

Final, no tan abierto

Todos los ejercicios enviados, en el curso de diplomado, para ejercitar la escritura académica también fueron realizados por una aplicación de IA. ¿Podría enviar otro tipo de ejercicio? Hasta donde le he dado vueltas al asunto, no es posible: la única manera de aprender a escribir es escribiendo. ¿Qué hacer para prevenir que, por pereza o falta de escrúpulos, quienes estén estudiando elijan que la IA haga sus tareas? No tengo una respuesta definitiva al respecto; sin embargo, es posible que tengamos que, por un tiempo, implemetar las tareas en clase y a mano, sin posibilidad de consultar Internet. O, hablar con nuestro estudiantado y reflexionar sobre los problemas éticos y prácticos que se derivan del permitir que la IA piense y escriba por nosotros. O, por lo pronto, utilizar ambas estrategias.

En un artículo aparecido, originalmente, en The New York Times el 24 de marzo de 2023 y reproducido parcialmente por un sinnúmuero de medios digitales, el famoso historiador israelí Yuval Noah Harari, junto a Tristan Harris y Aza Raskin, cofundadores del Center for Humane Technology, advierten, dramáticamente, sobre el caos que producirá la IA si no es regulada oportunamente. Harari y sus colegas afirman que el lenguaje es el sistema operativo de la cultura humana y que la IA puede piratearlo y manipularlo. Ya sucedió con la IA detrás de las redes sociales que aumentó la polarización social, socavó nuestra salud mental y deshizo la democracia. Ellos advierten que, una vez que llegue el caos producido por la IA, será demasiado tarde para remediarlo: «La democracia es una conversación, la conversación se basa en el lenguaje, y cuando el lenguaje mismo es pirateado, la conversación se rompe y la democracia se vuelve insostenible»[1].

Nota bene: En este artículo, que describe el problema de manera general e inicial, la información recogida sobre IA y todos los textos entrecomillados —salvo el último que está debidamente referido— fueron producidos por una aplicación de IA. Las imágenes que ilustran el artículo fueron producidas por la IA llamada Craiyon bajo mis instrucciones. Tanto la introducción y la conclusión así como las advertencias sobre el uso indiscriminado de la IA son de mi exclusiva autoría.

Este texto apareció en el blog personal del autor.

[1] Yuval Noah Harari, Tristan Harris y Aza Raskin, «Cuál es el caos irremediable que producirá la inteligencia artificial si no se la regula antes», Infobae, 30 de marzo de 2023.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*