Una encuesta reciente destacó las crecientes dificultades que enfrentan los investigadores universitarios para acceder a recursos computacionales avanzados, esenciales en el desarrollo de inteligencia artificial (IA). Los resultados, publicados en el servidor de preimpresión arXiv, muestran cómo la falta de acceso a unidades de procesamiento gráfico (GPU) y otros recursos avanzados limita significativamente el progreso académico frente a las capacidades de la industria.
La investigación, liderada por Apoorv Khandelwal de la Universidad Brown, incluyó a 50 académicos de 35 instituciones. El 66 % de los encuestados calificó su satisfacción con la potencia computacional disponible con tres o menos puntos en una escala de cinco. Muchos atribuyen esta insatisfacción a los altos costos de las GPU, herramientas esenciales para entrenar modelos de IA. Según Khandelwal, mientras que los gigantes tecnológicos pueden tener miles de GPU, los académicos apenas pueden contar con unas pocas.
El estudio también reveló grandes disparidades en el acceso global. Por ejemplo, investigadores de Oriente Medio reportaron mayores dificultades para obtener tecnología avanzada, y solo un 10 % de los participantes dijo tener acceso a las GPU H100 de NVIDIA, diseñadas específicamente para investigación en IA. Estas limitaciones afectan especialmente a procesos como el preentrenamiento, crucial para desarrollar modelos avanzados. "Es tan costoso que la mayoría de los académicos ni siquiera consideran hacer ciencia sobre el preentrenamiento", añadió Khandelwal.
Las universidades adoptan distintas estrategias para gestionar sus recursos tecnológicos. Algunas cuentan con clústeres compartidos donde los investigadores solicitan tiempo de uso, mientras que otras permiten que los laboratorios compren sus propios equipos. Sin embargo, las largas esperas para acceder a GPU, especialmente en momentos clave de proyectos, complican aún más las investigaciones.
Stella Biderman, de EleutherAI, enfatizó que "la brecha entre los modelos académicos e industriales es enorme, pero podría ser mucho menor". También destacó la importancia de fortalecer la investigación académica para garantizar un desarrollo tecnológico balanceado y sin presiones comerciales inmediatas. Ellie Pavlick, coautora del estudio, coincidió al señalar que "Es realmente importante tener un entorno de investigación académica saludable y competitivo para el crecimiento y el desarrollo tecnológico a largo plazo".
A pesar de las limitaciones, los académicos adoptaron métodos más eficientes para maximizar el uso de hardware limitado. El estudio evaluó el tiempo necesario para entrenar modelos con recursos modestos, utilizando entre una y ocho GPU. Aunque este enfoque requiere más tiempo, se demostró que es posible entrenar modelos avanzados de manera efectiva. Ji-Ung Lee, de la Universidad del Sarre, afirmó que "Es genial ver que realmente se puede entrenar un modelo más grande de lo que mucha gente hubiera supuesto con recursos informáticos limitados". (Notipress)