¿Estás interesado en ellos? OFERTAS? Ahorra con nuestros cupones en Whatsapp o TELEGRAMA!

OpenAI crea un equipo para los riesgos 'catastróficos' de la IA. Por eso nos preocupa

OpenAI, una empresa ahora a la vanguardia en el campo de la inteligencia artificial, recientemente anunciado la creación de un nuevo equipo con la tarea específica de Evaluar y mitigar riesgos potencialmente catastróficos asociados con el avance de las tecnologías relacionadas con la IA.. Esta medida resalta la creciente importancia de abordar de manera proactiva los desafíos y peligros que pueden traer los modelos generativos. Evidentemente, donde no se controlan adecuadamente.

Identificación de riesgos por OpenAI

A medida que la inteligencia artificial evoluciona rápidamente, surgen nuevos riesgos que podrían tener graves impactos a escala global. Para ello, el nuevo equipo de preparación de OpenAI se dedicará a seguir, evaluar, proporcionar e proteger contra estos posibles problemas. Entre los riesgos identificados se encuentran: amenazas nuclear, un tema que destaca la urgencia de una acción responsable en el campo de la IA.

Además de las amenazas nucleares, el equipo también se centrará en los peligros relacionados con sustancias. químicos, biológicos y radiológicos, así como en ffenómeno de autorreplicación de la inteligencia artificial, o la capacidad de un sistema de inteligencia artificial para replicarse de forma autónoma. Otras áreas de interés incluyen la capacidad de la IA para engañar a los humanos y amenazas hasta la la seguridad cibernética.

Beneficios y desafíos de la IA avanzada

OpenAI reconoce que los modelos de IA de vanguardia, aquellos que superan las capacidades de los modelos existentes más avanzados, tienen el potencial de beneficiar a toda la humanidad. Y no, al contrario de lo que piensas, elLa inteligencia artificial no está aquí para robarnos puestos de trabajo sino más bien, crearlo.

Sin embargo, un gran poder conlleva también una gran responsabilidad. Por lo tanto, es esencial desarrollar políticas informado sobre los riesgos, que le permitan evaluar y monitorear modelos de IA, para garantizar que los beneficios superen los riesgos asociados.

openai ofrece recompensas por encontrar errores en chatgpt

Lea también: DeepMind tiene la solución para prevenir los riesgos de la IA

El liderazgo de este nuevo equipo ha sido confiado a Alejandro Madry, una figura destacada en el campo del aprendizaje automático. Actualmente de licencia de su papel de director de Centro de aprendizaje automático implementable del MIT, Sabio coordinará esfuerzos para desarrollar y mantener una política de desarrollo informada sobre los riesgos.

Hacia una prioridad global

El director ejecutivo de OpenAI, Sam Altman, no es nuevo a las preocupaciones sobre los riesgos potencialmente catastróficos de la IA. Sugirió que el tratamiento de las tecnologías de IA debería ser ptomado tan en serio como el de las armas nucleares, destacando la necesidad de un esfuerzo colectivo para mitigar los riesgos de extinción asociados con la IA. Este nuevo equipo representa un paso concreto hacia la realización de esta visión, destacando el compromiso de OpenAI de contribuir a una gestión responsable de la Inteligencia Artificial.

Gianluca Cobucci
Gianluca Cobucci

Apasionado del código, los lenguajes y lenguajes, las interfaces hombre-máquina. Todo lo que es evolución tecnológica me interesa. Intento divulgar mi pasión con la máxima claridad, apoyándome en fuentes fiables y no "a la primera".

Suscribir
notificar
invitado

0 comentarios
Comentarios en línea
Ver todos los comentarios
XiaomiToday.it
Logotipo