Mayo/23 Mark Carrigan, sociólogo de Manchester, argumenta que, dado que la IA generativa ya está incursionando en la práctica profesional y estudiantil, el sector de la educación superior no puede evitar el compromiso y debe encontrar nuevas formas de responder más rápido a los nuevos desarrollos. Tomado de Blogs.lse.ac.uk
¿Cómo afrontarán las universidades la IA generativa? Al hacer una pregunta como esta, existe el riesgo de tomar la exageración al pie de la letra, incluso si el metaverso y la cadena de bloques fueran decepcionantes, esta es realmente la ‘próxima gran cosa’. Hay inmensos intereses económicos en juego en la promoción de la IA generativa, ya que el sector de la tecnología, que lucha por hacer frente a un clima económico cambiante y al fracaso de su sueño pandémico de un ‘nuevo trato de pantalla’, aprovecha la IA generativa para mantener su poderosa posición en la sociedad. Sin embargo, si no investigamos cómo responden las universidades, existe el riesgo paralelo de que no abordemos los desafíos prácticos relacionados con la IA generativa con los que las universidades ya están comenzando a lidiar.
La producción mecánica de artefactos culturales tiene una larga historia. La generación procedimental de texto se practica desde al menos 1305. La Ciencia Narrativa ofrecía sistemas para producir periodismo empresarial y deportivo hace más de una década. Lo que ha cambiado con ChatGPT es la inmediatez y la flexibilidad de esta oferta, así como una campaña de marketing extraordinariamente exitosa que la llevó a convertirse en la aplicación de consumo de más rápido crecimiento en la historia. Si bien la suposición humanista de que el arte y la cultura deben originarse a partir de la creatividad de un individuo se ha erosionado durante algún tiempo, el momento actual es significativo debido a la comprensión generalizada y las pocas barreras de entrada para quienes buscan experimentar con la producción cultural de esta manera.
Una analogía frecuente compara ChatGPT con una calculadora: funciona, es solo la falta de familiaridad con la tecnología lo que nos lleva a imaginar que usar el sistema es un sustituto de la creatividad, en lugar de una expresión de ella; una vez que hayamos llegado a un acuerdo con sus posibilidades, llegaremos a verlo como usar una calculadora para realizar operaciones aritméticas más fácilmente a fin de liberarnos para otras tareas importantes. El problema con esta analogía es que las calculadoras no son parte integral de las arquitecturas computacionales globales en una carrera armamentista multimillonaria para dominar nuestro futuro sociotécnico. Los desafíos prácticos que enfrentan las universidades en el futuro inmediato, como preservar la integridad de la evaluación y cómo reconocer las contribuciones automatizadas a las publicaciones, deben verse en este contexto ético y político más amplio.
Ignorar este desafío corre el riesgo de crear caos en las evaluaciones y decepcionar a nuestros estudiantes, quienes trabajarán en entornos donde estos sistemas son ubicuos. Sin embargo, para normalizarlo, construye el capitalismo de plataforma en las operaciones centrales de la universidad contemporánea. Estos sistemas se basan en el poder computacional y la captura de datos tanto como en la innovación científica, y su mayor crecimiento y desarrollo dependen de la expansión continua de la maquinaria de participación del usuario y extracción de datos. OpenAI ha sido explícito acerca de confiar en la ‘inteligencia colectiva’ para administrar su despliegue y refinar el sistema, dejando a la educación superior en la incómoda posición de institucionalizar su modelo de negocios dentro de la universidad.
“La lucha por el liderazgo del pensamiento y el control de la narrativa es abrumadora”, como observó recientemente danah boyd , con visiones utópicas y distópicas que compiten entre sí, entrelazadas con una rica vena de interés propio generalmente no reconocido. No solo el sector universitario no es diferente en estos aspectos, existe la forma particular de explosión discursiva a la que es propensa la universidad pospandemia; a medida que el giro hacia las publicaciones de COVID-19 parece disminuir, otro se está intensificando. Google Scholar ya registra 629 resultados para el término de búsqueda exacto “Chat GPT”, a pesar de que el software solo se lanzó el 30 de noviembre de 2022. Queda por ver cómo la IA generativa podría acelerar aún más este comentario y análisis. Obviamente, esta publicación de blog es parte de la explosión, aunque me siento sincero al escribirla, como sin duda lo hacen los autores de cada uno de estos 629 artículos.
El problema central que enfrentamos: “¿Cómo creamos estructuras significativas para comprender y evaluar las transformaciones que se desarrollan a medida que se desarrollan? y retroalimentarlos en los ciclos de desarrollo? Este es uno al que las universidades se enfrentan actualmente en sus intentos de resolver problemas prácticos inmediatos (por ejemplo, proporcionar orientación a los estudiantes sobre el uso de ChatGPT en la evaluación sumativa y formativa) de una manera conjunta que sienta las bases para responder a desarrollos futuros aún impredecibles. Parte del problema es que incluso un sistema único como ChatGPT abarca una variedad vertiginosa de casos de uso para académicos, estudiantes y administradores que aún están en proceso de ser descubiertos), todo mientras las universidades todavía están lidiando con GPT-3.5. Además, la IA generativa es una categoría más amplia que ChatGPT con imágenes, videos, código, música y voz que probablemente lleguen a la conciencia general con la misma fuerza en los próximos meses y años.
En lo que Filip Vostal y yo hemos descrito como la Academia Acelerada , el ritmo de vida laboral aumenta (aunque de forma desigual), pero la formulación de políticas sigue avanzando con demasiada lentitud para hacerle frente. En las universidades aisladas y centralizadas existe un problema recurrente de distanciamiento de la práctica, donde se formulan políticas y se desarrollan procedimientos con muy poca conciencia de las realidades sobre el terreno. Cuando los casos de uso de la IA generativa y los problemas que genera se descubren a diario, necesitamos urgentemente mecanismos para identificar y filtrar estos problemas de toda la universidad para responder de una manera que escape a los horizontes temporales establecidos de la docencia y aprendizaje de la burocracia. A menos que la formulación de políticas y la toma de decisiones puedan acelerarse, existe el riesgo de que las respuestas institucionales en realidad amplifiquen los problemas al comunicar expectativas que son incongruentes con una situación que evoluciona rápidamente.
Hay muchas razones por las que se necesita una toma de decisiones más ágil, pero una de las que más me preocupa es el riesgo de una carga cada vez mayor para el personal. Por ejemplo, como Phil Brooker y yo hemos explorado en nuestro trabajo sobre habilidades de codificación para científicos sociales , los modelos individualizados de ‘capacitación digital mejorada’ (ya sea capacitación institucional opcional o uso privado de recursos abiertos) pueden ser reemplazados de manera útil por trabajo en grupo. sobre problemas del mundo real, con mejores resultados intelectuales y una menor carga académica. Si las universidades no logran desarrollar estructuras para hacer frente a las implicaciones de la IA generativa, entonces el personal académico y de servicios profesionales se quedará, como lo expresaron una vez Beck y Beck-Gernsheim., para “buscar soluciones biográficas a las contradicciones sistémicas”. Hay emocionantes oportunidades creativas y desafíos éticos en el horizonte. Desearía tener más confianza en la capacidad de las universidades para realizar lo primero y responder adecuadamente a lo segundo.