Microsoft no quiere ni oír hablar de regular las inteligencias artificiales porque está invirtiendo mucho dinero y tiempo en OpenAI y ChatGPT como el futuro de su negocio y su buscador Bing. Por eso tampoco es extraño que Michael Schwarz, director económico de Microsoft, haya dicho que no hay que regular el tema de las inteligencias artificiales hasta que no provoquen un «daño significativo», para luego hacer una analogía con el inicio de los automóviles: no se regularon hasta que no hubo miles de muertos. Esa analogía deja claro que este directivo de Microsoft no quiere que se regulen hasta que no muera mucha gente, y luego ya veremos.

Además de ser una estupidez, evidencia la falta de aprendizaje de ciertos humanos de los errores históricos cometidos. Si se sabe que la era de los automóviles se inició sin una regulación clara, y que esa falta de regulación llevó a miles de muertos en carreteras antes de tomar medidas en forma de carnés de conducir, lo lógico sería regular las inteligencias artificiales antes de que causaran daños graves o de que mataran a alguien.

Siendo coherente con lo que dice, este directivo está a favor de que una IA tuviera acceso al lanzamiento de los misiles nucleares porque no quiere que se regule sobre ellas. Hasta que no le diera a una IA por lanzar un misil nuclear causando millones de muertos no sería necesario legislar para prohibir que eso volviera a suceder. Pero al menos sobre esto ya se está intentando legislar por parte de los EUA, porque hay vida inteligente fuera de Microsoft, vida que no se mueve por el lucro. La preocupación del directivo de Microsoft sobre regular ya las inteligencias artificiales es porque podría «perjudicar a la innovación», que en términos de una megacorporación significa «nos va a hacer perder dinero».

Entiendo que el directivo no ha escogido la mejor analogía a realizar, porque las cosas del directo es lo que tienen. Si hubiera tenido más tiempo para elegir otra analogía seguramente habría usado cualquiera que no implicara inferir que hasta que no haya muertos no se deben regular las IA. Pero lo ha hecho, lo cual dice mucho de los planes de Microsoft con respecto a las inteligencias artificiales. El fondo de la cuestión, ¡oh, sorpresa!, es que un sector empresarial no quiere que se regule ese sector empresarial. Vamos, como los banqueros que no querían que se regulara la banca, o las eléctricas que no querían que se regularan las eléctricas, porque les iba a hacer perder mucho dinero.

Además, de lo que se está hablando en el terreno de la regulación en la Unión Europea es prevenir las infracciones de derechos de autor, que se desarrollen con total transparencia, y prohibir aquellas inteligencias artificiales que recopilen información de los ciudadanos y los cataloguen según sus creencias u otros —por ejemplo, para evitar que Twitter o Facebook se usen para influenciarlos mediante publicidad durante procesos electorales—, entre otros apartados de lógica.

No creo que obligar a Microsoft a que diga de qué webs sale la información de las respuestas que da una IA sea algo malo. Es como pedir que no te dijeran en la Wikipedia de dónde sale la información que da, o que en un documento científico no se citen las fuentes. Sin esa información mínima no se puede comprobar si la IA está usando información veraz o manipulada.

Vídeo

Vía: Ars Technica.