Sam Altman, el fundador de OpenAI, está de gira por los países occidentales para hablar con los gobernantes sobre los beneficios y problemas que las inteligencias artificial (IA) llevan aparejados. Durante una comparecencia en el Congreso de los EUA, Altman dijo que las IA debían ser reguladas, haciéndola más exigente y estricta para las IA más avanzadas. Pero Altman quiere una regulación a la carta, algo que no proteja tan poco como suelen hacer las leyes estadounidenses y tampoco tanto como hacen las leyes eurounionistas.

El actual borrador de la Ley de Inteligencia Artificial de la Unión Europea le parece excesivo aunque a través de grupos de presión de las empresas que quieren hacer mucho dinero con las IA, como la propia OpenAI, parece que van a conseguir que la UE relaje la ley. Pero sea como sea, Altman ha dicho que OpenAI intentará cumplir con la normativa que sea aprobada, y que en caso de que no le sea posible por el funcionamiento de GPT-4 y ChatGPT, pues que OpenAI simplemente abandonará el mercado de la UE.

Quiere una legislación a la carta, y para eso está hablando con los presidentes y primeros ministros de los países europeos en un intento por hacerles comprender su punto de vista y que lo acepten para que la regulación final de la UE sea más flexible, que perjudique menos a los ingresos de la compañía, dejando a los ciudadanos más desprotegidos. Ha recalado en Reino Unido, donde se ha reunido con el primer ministro Rishi Sunak.

Por otro lado, Altman ha estado hablando con Sundar Picahi, el director ejecutivo de Google y Alphabet, para crear un pacto sobre IA para no tener que esperar a que se regule a nivel gubernamental. Algo que está muy cerca de ocurrir en la UE, pero que está muy lejos en el resto de países de Occidente. Pero también las empresas de internet hicieron pactos entre ellas por ejemplo para el tratamiento de la información de los usuarios que luego se ha visto que violaban totalmente la privacidad, por lo que estos pactos entre empresas que tiene ánimo de lucro sirven de poco o nada. Es como dejar a los bancos que pacten la normativa que tiene que regularlos.

Si se quisiera hacer bien el control de las IA, tendría que crearse una regulación a nivel global propiciada por la ONU. De nada sirve regular las IA en Alemania si luego te llevas a tus desarrolladores al Congo para saltarte todas las restricciones y desarrollar una IA para robots asesinos o para jaquear a los sistemas críticos de los países occidentales. Porque, ¿qué puede salir mal en todo esto? Desgraciadamente, todo.

Vía: TechPowerUp.