Todo era estupendo y muy abierto cuando hace unos años se comenzó a avanzar en el desarrollo de sistemas prácticos de inteligencia artificial. Empresas como OpenAI no solo sacaban a la luz motores asombrosos como DALL-E 2 o GPT-3, sino que publicaban extensos estudios detallando cómo los habían creado. Eso se acabó.
GPT-4. Esta semana OpenAI anunciaba la nueva versión de su modelo de IA conversacional, GPT-4, y aunque en el anuncio oficial mostraba las ventajas y su capacidad, no se daban detalles internos de su desarrollo. No se sabe con cuántos datos se ha entrenado al sistema, cuál es el coste energético o qué hardware y métodos se han seguido para crearla.
I think we can call it shut on ‘Open’ AI: the 98 page paper introducing GPT-4 proudly declares that they’re disclosing *nothing* about the contents of their training set. pic.twitter.com/dyI4Vf0uL3
— Ben Schmidt / @benmschmidt@vis.social (@benmschmidt) March 14, 2023
OpenAI es de todo menos ‘Open’. Ben Schmidt, ingeniero en una empresa de IA cartográfica llamada Nomic, señalaba un detalle importante del informe técnico de 98 páginas sobre GPT-4: sus responsables declaraban que no iban a desvelar nada de nada sobre cómo habían entrenado al modelo.
¿La razón? La competencia. En la segunda página de ese informe hablaban del alcance y limitaciones de ese informe, advirtiendo de que aunque darían datos sobre sus capacidades, no desvelarían detalles internos del desarrollo para no facilitar que otros competidores pudieran igualar su desarrollo:
«Teniendo en cuenta el panorama competitivo y las implicaciones para la seguridad de modelos a gran escala como el GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción del conjunto de datos, el método de entrenamiento u otros datos similares, la construcción del conjunto de datos, el método de entrenamiento o similares».
Las empresas se ponen serias. Ilya Sutskever, uno de los cofundadores de OpenAI, explicaba en The Verge que «hay mucha competitividad ahí fuera. […] Muchas empresas quieren hacer lo mismo, así que desde un punto de vista competitivo, puedes ver esto como la maduración de este campo». De compartir conocimiento como sucedía hace años, las empresas han pasado a un enfoque mucho más proteccionista hacia sus avances.
Pero hay un peligro. El problema con esa nueva postura secretista está en la seguridad de estos modelos, que sin esa transparencia pierden la capacidad de ser auditados por otros expertos u organizaciones independientes. Para Sutskever el enfoque era precisamente el contrario: estos modelos pueden acabar causando «mucho daño», y a medida que las capacidades mejoran, «tiene sentido que ni quieras desvelar [cómo funcionan por dentro]» para que malos actores no puedan aprovecharse de ello.
«Estábamos equivocados». La actitud de OpenAI en este sentido ha cambiado totalmente, y en el pasado compartieron amplia información sobre sus modelos. Según Sutskever «estábamos equivocados». Para él si la IA acaba siendo potente «no tiene sentido abrir el código fuente. Es una mala idea… Espero que dentro de unos años sea completamente obvio para todos que la IA de código abierto no es una buena idea».
Opiniones para todos los gustos. Mientras OpenAI se cierra en banda con GPT-4, Meta acaba de lanzar LLaMA, un competidor esencialmente abierto que de hecho podemos instalar en nuestro portátil. El enfoque es de momento el que tenía originalmente OpenAI, pero para otros la decisión de los creadores de GPT-4 tiene sentido desde el punto de vista empresarial. Eso es lo que confesaba William Falcon, creador de la herramienta PyTorch Lightning, que en VentureBeat explicaba cómo «Si este modelo sale mal, y saldrá mal, ya lo has visto con alucinaciones y dándote información falsa, ¿cómo se supone que reaccionará la comunidad?»
Y además está el copyright. Hay además un aspecto legal en todo esto: los conjuntos de datos o ‘datasets’ con los que se entrenan estos modelos son gigantescos y mucha de esa información se recolecta de la web. Es probable que parte de esos contenidos estén protegidos por derechos de autor, así que no decir cómo los han entrenado les protege (inicialmente) contra potenciales demandas por violaciones de derechos de autor.
En Xataka | No tengo ni idea de programar pero gracias a GPT-4 he creado un clon de Flappy Bird