Microsoft pide reglas de IA para minimizar riesgos - كورة برس

Microsoft pide reglas de IA para minimizar riesgos

جوجل بلس

Microsoft aprobó un conjunto de regulaciones de inteligencia artificial el jueves, ya que la compañía aborda las preocupaciones de los gobiernos de todo el mundo sobre los riesgos de la tecnología de rápido crecimiento.

Microsoft, que prometió incorporar inteligencia artificial en muchos de sus productos, ha propuesto regulaciones que incluyen el requisito de que los sistemas utilizados en la infraestructura crítica puedan apagarse o ralentizarse por completo, de manera similar a un sistema de parada de emergencia en un tren. La compañía también pidió leyes que aclaren cuándo se aplican obligaciones legales adicionales a un sistema de IA y que las etiquetas indiquen claramente cuándo una imagen o video se genera por computadora.

“Las empresas deben dar un paso adelante”, dijo el presidente de Microsoft, Brad Smith, en una entrevista sobre el impulso de las regulaciones. “El gobierno necesita actuar más rápido”.

La convocatoria de regulaciones destaca el auge de la IA, con el lanzamiento del chatbot ChatGPT en noviembre que generó una ola de interés. Desde entonces, empresas como Microsoft y la empresa matriz de Google, Alphabet, se han apresurado a incorporar la tecnología en sus productos. Esto ha generado preocupaciones de que las empresas están sacrificando la seguridad para llegar al próximo gran avance antes que sus competidores.

Los legisladores han expresado públicamente su preocupación de que tales productos de inteligencia artificial, que pueden generar texto e imágenes por sí mismos, creen una avalancha de información errónea, sean utilizados por delincuentes y dejen a la gente sin trabajo. Los reguladores en Washington se han comprometido a estar atentos a los estafadores que usan IA y los casos en los que los sistemas apoyan la discriminación o toman decisiones que infringen la ley.

En respuesta a este escrutinio, los desarrolladores de IA piden cada vez más que se transfiera parte de la carga del control de la tecnología al gobierno. Sam Altman, CEO de OpenAI, que fabrica ChatGPT y cuenta con Microsoft como inversionista, le dijo a un subcomité del Senado este mes que el gobierno debería regular la tecnología.

La maniobra hace eco de los pedidos de nuevas leyes de privacidad o redes sociales de compañías de Internet como Google y Meta, la matriz de Facebook. En los Estados Unidos, los legisladores se han movido lentamente en llamadas similares, con pocas reglas federales nuevas sobre privacidad o redes sociales en los últimos años.

En la entrevista, Smith dijo que Microsoft no estaba tratando de abdicar de la responsabilidad de administrar la nueva tecnología porque proponía ideas específicas y prometía implementar algunas de ellas independientemente de si el gobierno actuaba o no.

No hay un ápice de abdicación de responsabilidad”, dijo.

Respaldó la idea, defendida por Altman durante su testimonio ante el Congreso, de que una agencia gubernamental debería exigir a las empresas que obtengan licencias para implementar modelos de IA “muy capaces”.

“Significa que notifica al gobierno cuando comienza a realizar las pruebas”, dijo Smith. “Hay que compartir los resultados con el gobierno. Incluso cuando tiene licencia para su despliegue, tiene el deber de seguir supervisándolo e informar al gobierno si surgen problemas inesperados”.

Microsoft, que ganó más de 22.000 millones de dólares con su negocio de computación en la nube en el primer trimestre, también dijo que estos sistemas de alto riesgo solo deberían poder ejecutarse en “centros de datos de IA con licencia”. Smith reconoció que la compañía no estaría en una “mala posición” para ofrecer tales servicios, pero dijo que muchos competidores estadounidenses también podrían brindarlos.

Microsoft agregó que los gobiernos deberían designar ciertos sistemas de inteligencia artificial utilizados en infraestructura crítica como de “alto riesgo” y exigirles que tengan un “freno de seguridad”. Él compara esta característica con “los ingenieros de sistemas de frenos han incorporado durante mucho tiempo otras tecnologías, como ascensores, autobuses escolares y trenes de alta velocidad”.

En algunos casos delicados, dijo Microsoft, las empresas que proporcionan sistemas de inteligencia artificial necesitan conocer cierta información sobre sus clientes. Para proteger a los usuarios del fraude, el contenido generado por IA debe llevar una etiqueta especial, dijo la compañía.

Smith dijo que las empresas deberían asumir la “responsabilidad” legal por los daños relacionados con la IA. En algunos casos, dijo, la parte responsable podría ser el desarrollador de una aplicación como el motor de búsqueda Bing de Microsoft que utiliza la tecnología de IA subyacente de otra persona. Las empresas de la nube pueden ser responsables del cumplimiento de las normas de seguridad y otras reglas, agregó.

“No necesariamente tenemos la mejor información o la mejor respuesta, o puede que no seamos el orador más creíble”, dijo Smith. “Pero sabes, en este momento, especialmente en Washington, la gente está buscando ideas”.