Por Europa Press
El CEO de OpenAI, Sam Altman,cree que la regulación para los pequeños modelos de lenguaje impulsados por Inteligencia Artificial (IA) “no tiene sentido” y apuesta por regular de cara a los modelos grandes como, en este caso, ChatGPT de OpenAI, porque son “los que realmente pueden hacer daño”.
Así lo ha expresado el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, en un coloquio celebrado este lunes en la IE University, donde ha estado acompañado por el científico de investigación de OpenAI Mo Bavarian; el director ejecutivo del Programa Owners Scaleup, Joe Haslam; y la cofundadora y CEO de Clibrain, Elena González-Blanco.
Durante la ponencia, el CEO de OpenAI ha remarcado que la regulación es “muy importante”, pero también ha puesto énfasis en que sobrerregular “no es bueno” ya que, en el caso de las pequeñas compañías de modelos de lenguajes, cortaría su capacidad de innovación y de creación.
“No pensamos que la regulación para modelos pequeños tenga sentido”, ha observado Altman, al tiempo que ha indicado que la regulación tiene que estar diseñada para los modelos grandes, y prever que realmente “no podamos hacer daño en el mundo”. Así, ha sugerido que se debe “dejar crecer” a los modelos pequeños y que lo lógico es centrar la atención de la regulación en los modelos grandes, ya que “somos los que podemos manejarlos”.
Igualmente, el CEO de OpenAI ha remarcado la importancia de la privacidad y la preocupación que existe en torno a esta cuestión a todos los niveles. En este sentido, ha asegurado que desde la compañía continuarán “trabajando con otros gobiernos alrededor del mundo” para conseguir mejorar los modelos de lenguaje impulsados por IA y proteger la privacidad.
Además, ha apuntado que desde OpenAI quieren llevar a cabo tecnología con la que “la gente se encuentre cómoda y segura”. “Queremos hacer lo que la gente quiera. Queremos crear el producto que la gente quiera utilizar”, ha aseverado Altman, en referencia al trabajo que han estado llevando a cabo con ChatGPT para mejorar aspectos como la privacidad, la seguridad de los datos y la calidad de la información.
“Es justo y razonable ser escéptico”, ha manifestado, al tiempo que ha admitido que el trabajo de la tecnología con la IA “no ha sido perfecto”. En este sentido, ha señalado que aunque ha habido “muchos errores”, también se ha de tener en cuenta todo el trabajo llevado a cabo para solucionarlos y crear mejoras.
De la misma forma, Altman ha explicado que han empujado a estas tecnologías, en este caso ChatGPT, a ser “abiertas de cara al mundo”, aún sabiendo que no son perfectas porque “la gente tiene que probarlas”. Es decir, según ha desarrollado, considera mejor que la gente, las instituciones y los gobiernos prueben una tecnología de estas características aunque aún no esté completamente lista, para ver “cómo se puede utilizar de forma buena y mala y, en base a ello, adaptarla a la sociedad”.
Por todo ello, ha reiterado la importancia de la regulación de los modelos de lenguaje impulsados por IA como ChatGPT, pero también ha hecho hincapié en que lo que preocupa a la compañía es, sobre todo, “hacer lo correcto” y, por ello, ha puesto en valor que llevan ocho meses “haciendo ChatGPT más seguro”.
Objetivos
Tal y como ha explicado, el éxito que han tenido ChatGPT y los modelos de lenguaje de OpenAI, se basa en tres características. En primer lugar, se trata de un algoritmo “que realmente puede aprender”, es decir, puede hacer relaciones entre una gran cantidad de datos y eso “no era obvio para la gente”.
Además, el algoritmo es predecible; “podemos predecir cómo de buenos van a ser los resultados”, según ha explicado Altman. Por último, ha detallado que con “muy pocos datos”, es un algoritmo capaz de comportarse como “cualquier sistema de valores”. Por todo ello, ha señalado que “tiene todos los ingredientes” para llegar lejos.
En concreto, Altman y Bavarian han explicado que hacen uso de ChatGPT de forma personal “muy a menudo” y que, sobre todo, dentro de OpenAI lo utilizan para codificar y conectar toda la tecnología dentro de la compañía. En este sentido, han remarcado que, sobre todo, la intención de ChatGPT es la de convertirse en un superasistente de IA que pueda “ayudar con todo”. Así, han señalado que la idea es que pueda ayudar a realizar pequeñas tareas y que cada vez sean tareas más complejas.
Por otra parte, el director ejecutivo también ha señalado que otro de los objetivos que tienen las tecnologías como ChatGPT es el de equilibrar la sociedad. Con ello ha hecho referencia a la posibilidad de ayudar a cualquier persona a tener acceso a información o a herramientas para poder desarrollar sus iniciativas, “independientemente de quien sea”.
Así, el CEO de OpenAI también se ha referido a la educación y a cómo interfieren herramientas como ChatGPT. En este aspecto, ha señalado que puede significar una “superherramienta” tanto para profesores como para estudiantes y que, por tanto, todos deberían “abrazar” este cambio en el modelo de la educación que está por venir. “Las instituciones educativas deben meterse en esto”, ha dicho Altman.
Además de todo ello, ha concluido recordando que la tecnología impulsada por IA, como la de OpenAI, es la tecnología “más capacitadora que ha visto el ser humano” y que, gracias a ella y las capacidades de creatividad e innovación que presenta, “el mundo va a ser tremendamente diferente y mejor”. “Si das a la gente mejores herramientas, tendrás un mejor futuro”, ha sentenciado el CEO de OpenAI.