Se abre un dilema para los científicos con el plagio en la era de la IA

Se abre un dilema para los científicos con el plagio en la era de la IA

Foto: Sergio F Cara

Desde principios de 2024, el mundo académico se vio envuelto por una serie de escándalos por plagio que sacudió a las instituciones educativas. Un notable ejemplo fue la renuncia del presidente de la Universidad de Harvard en enero de 2024 debido a las acusaciones por plagio. Sin embargo, un desafío aún mayor emerge en el ámbito de la escritura académica: la creciente adopción de herramientas de inteligencia artificial (IA) generativa plantea nuevos interrogantes sobre la naturaleza del plagio y las circunstancias donde debería permitirse su uso.

 

Ante ello, Jonathan Bailey, consultor de derechos de autor y plagio con sede en Nueva Orleans, Luisiana, destacó la complejidad del problema. La IA generativa, como ChatGPT, puede producir textos en respuesta a indicaciones, creando un espectro que va desde textos completamente escritos por humanos hasta aquellos generados íntegramente por IA. Aunque estas herramientas pueden ahorrar tiempo y mejorar la claridad, también generan preocupación sobre si su uso sin atribución constituye plagio.

 

Herramientas de IA, como los modelos lingüísticos de gran tamaño (LLM), están entrenadas para generar textos a partir de grandes volúmenes de datos previamente publicados. Esto podría derivar a situaciones donde el contenido creado por una máquina se asemeje peligrosamente al trabajo de otras personas sin darles crédito.

 

La dificultad para detectar esto añade una capa de complejidad al debate sobre la deshonestidad académica. Según Pete Cotton, ecologista de la Universidad de Plymouth, Reino Unido, se deben definir los límites desde donde se considere plagio será complicado. Sin embargo, una encuesta realizada en 2023 a mil 600 investigadores reveló que el 68% de los encuestados cree que la IA complicará la detección del plagio.

 

Por su parte, Debora Weber-Wulff, especialista en plagio de la Universidad de Ciencias Aplicadas de Berlín, señaló que existe una preocupación generalizada sobre el uso indebido de la IA. La confusión sobre cuándo se convierte en una violación ética persiste y muchos investigadores temen ser penalizados injustamente. No obstante, el plagio, definido por la Oficina de Integridad en la Investigación de Estados Unidos, es la apropiación de ideas, procesos, resultados o palabras de otra persona sin dar crédito.

 

Algunas voces argumentan que las herramientas de IA generativa infringen los derechos de autor, ya que utilizan el trabajo de millones de personas para entrenar los modelos. La reciente demanda de The New York Times contra Microsoft y OpenAI por violaciones de derechos de autor es un reflejo de esta preocupación.

 

El uso de IA en la escritura académica aumentó significativamente desde el lanzamiento de ChatGPT en noviembre de 2022. Un estudio reciente estimó que al menos el 10% de los resúmenes de artículos biomédicos en los primeros seis meses de 2024 utilizaron asistentes de escritura basados en LLM. Este aumento plantea desafíos para detectar el uso no revelado de estas herramientas. Bajo la misma línea, Guillaume Cabanac, científico informático de la Universidad de Toulouse, Francia, destacó que incluso antes de la IA generativa, ya existían herramientas para evadir la detección de plagio.

 

A pesar de los beneficios potenciales de la IA en la escritura académica, como la mejora de la claridad y la reducción de barreras lingüísticas, persiste la confusión sobre cuándo su uso es éticamente aceptable. Soheil Feizi, científico informático de la Universidad de Maryland, College Park, sugirió que usar LLM para parafrasear contenido existente es plagio, pero emplearlos para ayudar a expresar ideas no debería ser penalizado si se hace de manera transparente. La velocidad del avance en la IA produce conflictos insospechados en años recientes y el plagio es apenas la punta del iceberg del potencial incierto de futuros problemas. (NotiPress)

Notas Relacionadas