OpenAI ofrece hasta 20.000 dólares por la detección de vulnerabilidades de ChatGPT

OpenAI, la empresa que está detrás del desarrollo del popular chatbot ChatGPT, informó que ofrecería hasta 20.000 dólares a los usuarios que reporten de vulnerabilidades en sus sistemas de inteligencia artificial.

“Lo invitamos a que nos informe sobre las vulnerabilidades, errores o fallas de seguridad que descubra en nuestros sistemas. Al compartir sus hallazgos, desempeñará un papel crucial para que nuestra tecnología sea más segura para todos”, escribió la compañía en su sitio web.

El programa, inventado en colaboración con Bugcrowd, una de las principales plataformas de recompensas por fallas, ofrecerá premios a los usuarios en función de la gravedad de las vulnerabilidades que notifiquen, a partir de 200 dólares por descubrimientos de poca importancia.

OpenAI explicó que el objetivo principal es obtener una visión general de ciertas funcionalidades de ChatGPT y garantizar que la inteligencia artificial beneficie a la humanidad.

Además, la empresa quiere analizar más profundamente la estructura de cómo los sistemas OpenAI intercambian datos con aplicaciones de terceros.

Creciente preocupación por la seguridad

El anuncio tiene lugar en medio de la creciente preocupación por la seguridad del chatbot. El 31 de marzo, Italia se convirtió en el primer país del mundo en restringir el acceso a esa herramienta por la recopilación de datos personales de manera ilegal y por la ausencia de sistemas para verificar la edad. La investigación está relacionada con un error informático en ChatGPT del 20 de marzo, que causó una vulnerabilidad en el sistema y expuso datos privados de sus usuarios.

Siguiendo este ejemplo, Alemania informó que podría prohibir ChatGPT debido a problemas de privacidad.

Asimismo, la Oficina del Comisario de Privacidad de Canadá (OPC, por sus siglas en inglés) hace una semana anunció que estaba iniciando una investigación sobre OpenAI por la “recogida, uso y divulgación de información personal sin consentimiento”. RT

ra

Compartir esta noticia

Facebook
Twitter
Scroll al inicio