
Katya Agro que hace un fotógrafo
El 25 de marzo, los estudiantes que estudian en informática 223, «Estructuras de datos y métodos de programación» recibieron un lienzo que decía que «evidencia clara del uso de II» se descubrió en un tercio de los materiales para el segundo conjunto de problemas. Actualmente, más de 150 estudiantes están capacitados en clase.
Los estudiantes recibieron 10 días para decidir confesar el uso de II en cualquier conjunto de problemas, y 50 puntos calculados a partir de la marca apropiada, o el riesgo de enfrentar acciones disciplinarias si se debe detectar el uso de II en cualquiera de sus tareas.
«Los estudiantes que no son voluntarios pero serán identificados durante nuestra investigación recibirán el número 0 para cada víctima», dice el comunicado. «Lo más importante es que su caso se transferirá al Comité Ejecutivo, que actualmente se desborda con tales casos. A partir del retraso, es probable que no obtenga la evaluación final para este curso en este semestre».
Tres estudiantes en la clase fueron entrevistados en las noticias que exigieron el anonimato de los temores a las consecuencias académicas. Los tres estudiantes dijeron que no usan IA para crear código para sus kits de problemas.
Un estudiante en el curso le dijo a la noticia que su profesor ordenó a los estudiantes que confesaran a la IA antes del 4 de abril y explicaran el código de generación de IA. El estudiante recordó al profesor que declaró que aquellos que no podían informar por su cuenta serían enviados al Comité Ejecutivo.
El Comité Ejecutivo, o Excomm, es un organismo responsable del cumplimiento de las reglas del Yale College.
Las referencias grupales en ExpumM son raras. La última vez que la mayoría de una clase se registró en el comité, cuando 81 estudiantes en la clase de antropología biológica supuestamente colaboraron durante un examen final en línea en 2022.
Actumm libera el currículum cada término de los casos disciplinarios que decidió. El último informe describe los casos en la primavera de 2024 y contiene cinco casos en los que los estudiantes fueron «reprendidos del acuerdo de responsabilidad» para el uso de II en kits de problemas, proyectos y documentos.
En el informe de la primavera de 2023, fue el primero en referirse al chat utilizado como una violación con cuatro casos relacionados. La caída de la caída de 2023 registró siete copias de este tipo.
Según CPSC 223 James Glenn, la práctica tradicional de la tarea de los estudiantes a través de herramientas de detección digital precede a la apariencia de chatbots de IA como ChatGPT. Durante décadas, dijo Glenn, los profesores han utilizado herramientas digitales para identificar la similitud entre los materiales.
«Estas herramientas para descubrir la cooperación son probablemente mejores (identificando la similitud) que revelar el uso de II», dijo Glenn.
Estudiantes entrevistados por noticias repetidas preocupaciones sobre la fiabilidad del II, citando que es acusado falsamente como una fuente significativa de ansiedad. Un estudiante en el curso le dijo a la noticia que no está claro cómo los estudiantes pueden demostrar su valía inocente.
«La mayoría de las personas con las que hablé no está segura porque creo que la ansiedad más grande es lo que se usan para usar el II, pero no lo hicieron y no pudieron explicarse», dijo el estudiante de noticias.
Otro estudiante dijo que la forma de enviar tareas: junto con el código completado, los estudiantes también cargan una revista escrita por un estudiante que contiene las etapas involucradas en la resolución del problema; de todos modos, es difícil probar el uso de II, diciendo que la revista puede ser «fácilmente falsa».
«El curso es ciertamente más de un tercio de las personas que usan el II», dijo el estudiante, y (acción disciplinaria) sería injusto para un tercio (estudiantes).
Independientemente de si los maestros son elegidos en el uso de detectores de plagio de cada instructor individual, de acuerdo con el enfoque discreto del departamento de informática a la política de IA.
Sin embargo, el estudiante debe entender la política de II, informa al presidente del departamento Holly Rashmeyer.
«(Informática) El instructor cuenta con una amplia latitud pedagógica para la estructura de sus cursos sobre cómo consideran adecuados», escribió el departamento de pregrado Theodore Kim en las noticias. «Esto incluye el nivel de uso de la IA y los métodos de detección utilizados. Como en el pasado, nos esforzamos por capacitar a los estudiantes para que sus sets no estén asociados con ciertos productos de software, II u otros».
Para la primavera de 2025, CPSC 223 prohíbe claramente el uso de generadores de código AI.
El estudiante en el curso dijo a la noticia que los maestros notaron durante la primera conferencia que el II no estaba permitido, sino que se hizo más énfasis en cooperación con otra persona. Además, se permitieron los conceptos con IA, pero la creación del código para los kits de problemas no lo fue.
Glen expresó que los maestros que enseñan ciencias informáticas de bajo nivel como CPSC 223 a menudo imponen una política de uso más difícil que aquellos que enseñan cursos más avanzados.
«Es más fácil usar la IA para ayudar en el curso de introducción», dijo Glenn. «Nuestro objetivo es enseñar a los estudiantes exactamente las cosas que son buenas».
Ozan Erat, que enseña CPSC 223 junto con Glen y Alan Weida, cita las preocupaciones de los estudiantes en torno al impacto II en la disponibilidad de ciencias de la computación. Según ERA, el hecho de que los empleadores puedan comenzar a aceptar la tecnología de IA para reemplazar a los desarrolladores de software, aumenta la responsabilidad que los estudiantes deben evitar usar estas tecnologías.
«(Aceptar tecnologías de IA en el lugar de trabajo) hace que sea aún más importante para los estudiantes interactuar completamente con su investigación y dominar todos los conceptos para que sean insuperables para el trabajo futuro», escribió Erat en las noticias. «Les digo a mis alumnos que si dejas que AI haga un trabajo por ti, me llevará tu trabajo».
Los estudiantes en el curso informaron la noticia de que generalmente entienden las políticas de II, pero consideraron que el permiso de II reduciría su abuso en una forma limitada.
Un estudiante dijo que pensó que ChatGPT debería ser muy limitado para los cursos de ingreso, pero por disponibilidad eterna; en comparación con el tiempo de trabajo limitado, los estudiantes no deben ser castigados por capacitación o por corrección de errores.
«En mi opinión, sería mejor si hicieran que todos explicaran su código en los comentarios (sí) su código, y simplemente explican por qué lo hace y qué hace. Creo que podría usar (IA) para crearlos, pero sería una forma (alentar) más integridad», dijo otro estudiante.
En un mensaje enviado a través del lienzo, los estudiantes de CPSC 223 también advirtieron que el uso adicional de II en los problemas puede conducir al diseño del curso, por ejemplo, en la colocación de un mayor peso en los puntajes obtenidos en los exámenes del aula.
Operai hizo su conversación en 2022.