Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Le blog de Contra información


Antiguos empleados de OpenAI publican el documento "Un derecho a advertir" que advierte sobre los riesgos avanzados de la IA

Publié par Contra información sur 19 Juin 2024, 13:43pm

Antiguos empleados de OpenAI publican el documento "Un derecho a advertir" que advierte sobre los riesgos avanzados de la IA

Un grupo de expertos y desarrolladores de inteligencia artificial (IA) que solían trabajar para OpenAI y Google advierten que la tecnología que ayudaron a impulsar es una grave amenaza para la humanidad. 

Aunque todavía dicen que "creen en el potencial de la tecnología de IA para ofrecer beneficios sin precedentes a la humanidad", los autores de un artículo titulado "Un derecho a advertir sobre la inteligencia artificial avanzada" dicen que también existen "riesgos graves".

"Estos riesgos van desde un mayor afianzamiento de las desigualdades existentes, hasta la manipulación y la desinformación, pasando por la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana", escriben.

"Las propias empresas de IA han reconocido estos riesgos, al igual que los gobiernos de todo el mundo y otros expertos en IA", prosiguen, citando todo su trabajo con hipervínculos a lo largo del artículo.

Con una "orientación suficiente de la comunidad científica, los formuladores de políticas y el público, estos expertos tienen la esperanza de que se pueda controlar la IA en beneficio de la humanidad. Al mismo tiempo, es poco probable que esa orientación llegue nunca dado el modo en que funciona el sistema."

"Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva", señalan los autores, "y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto".

Las empresas de IA saben mucho más que el público general sobre los riesgos

Aunque nunca lo dirán públicamente, las empresas de inteligencia artificial como OpenAI y Google, que ejecutan un espeluznante programa de inteligencia artificial llamado "DeepMind", conocen muy bien los graves riesgos que implica esta tecnología. Sin embargo, es demasiado rentable para ellos como para detenerse.

Tal como están las cosas actualmente, existen muy pocos requisitos legales para que las empresas de IA revelen al gobierno lo que saben sobre las tecnologías que están desarrollando. Aún peores son los requisitos de divulgación pública, que prácticamente no existen.

"No creemos que se pueda confiar en que todos lo compartirán voluntariamente", advierten los autores.

"Mientras no exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles cuentas ante el público. Sin embargo, amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las mismas empresas que pueden no abordaremos estos problemas".

En cuanto a las protecciones existentes para los denunciantes, éstas también son insuficientes porque se centran en actividades ilegales, y no hay nada ilegal, para bien o para mal, en desarrollar sistemas avanzados de inteligencia artificial capaces de controlar el mundo.

Muchos de los riesgos conocidos de la tecnología de IA aún no están regulados, y posiblemente nunca lo estén de manera formidable. Esto significa que existe un fuerte incentivo para que las empresas de IA tomen represalias contra cualquiera que se presente para intentar decir la fea verdad sobre la IA.

Aun así, los autores y firmantes del artículo "Derecho a advertir" hacen un llamamiento a todas las empresas de inteligencia artificial de todo el mundo a aceptar voluntariamente una serie de compromisos y principios, incluida la promesa de nunca celebrar ni hacer cumplir ningún acuerdo que prohíba el "menosprecio" o la crítica a su trabajo de IA.

Los autores también quieren que las empresas de IA:

- Permitan a los empleados, tanto actuales como anteriores, expresen de forma anónima sus inquietudes sobre la IA a los responsables de la empresa.

- Apoyen una cultura de crítica abierta a la IA.

- No tomen represalias contra los empleados actuales y anteriores que compartan públicamente lo que saben sobre la IA.

Los firmantes del artículo incluyen:

Jacob Hilton, ex OpenAI

Daniel Kokotajlo, ex OpenAI

Ramana Kumar, anteriormente Google DeepMind

Neel Nanda, actualmente Google DeepMind, anteriormente Anthropic

William Saunders, anteriormente OpenAI

Carroll Wainwright, anteriormente OpenAI

Daniel Ziegler, anteriormente OpenAI

Anónimo, actualmente OpenAI

También había seis firmantes anónimos, todos los cuales solían trabajar para OpenAI.

Yoshua Bengio, Geoffrey Hinton y Stuart Russell también respaldaron el llamado a la acción "Derecho a advertir".

No importa cómo se mire, la IA es una receta para el desastre humano. Obtenga más información en FutureTech.news.

Las fuentes de este artículo incluyen:


RightToWarn.ai

NaturalNews.com

naturalnews

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article

Archives

Nous sommes sociaux !

Articles récents