Las autoridades italianas bloquean ChatGPT por incumplir las normas de protección de datos Las iniciativas y opiniones que muestran su preocupación por el desarrollo aparentemente incontrolado de la inteligencia artificial han entrado en el campo normativo con el bloqueo a ChatGPT por parte de las autoridades italianas. La decisión se tomó el pasado viernes “con efecto inmediato” y se debe a que, según el país transalpino, el chatbot inteligente propiedad de la tecnológica OpenAI no respeta las leyes de protección de datos personales. El Garante para la Protección de Datos Personales, autoridad pública independiente que vela en Italia por la protección de los datos de los ciudadanos, ha decretado el bloqueo de ChatGPT pues considera que la herramienta recoge datos de forma ilegal. Al mismo tiempo, ha abierto una investigación para conocer de manera precisa el funcionamiento de la herramienta y determinar si ha infringido las normas de protección de datos. El bloqueo se mantendrá en tanto que ChatGPT no demuestre que cumple dichas normas. Las autoridades han informado de que el chatbot sufrió el pasado 20 de marzo una pérdida de datos personales El Garante ha informado de que el chatbot sufrió el pasado 20 de marzo una pérdida de datos de sus usuarios y de las conversaciones que estos mantienen con el sistema, así como de información de pago de sus abonados. El organismo subraya en su disposición de bloqueo «la falta de información a usuarios y a todas las partes interesadas” sobre el modo de recogida y gestión de los datos personales por parte de OpenAI y alude a «la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales con el fin de ‘adiestrar’ los algoritmos que gestionan el funcionamiento de la plataforma”. La resolución del organismo de protección de datos alega además que las informaciones por ChatGPT “no siempre se corresponden con los datos reales”, lo que a su vez da lugar a un tratamiento inexacto de los mismos. Asimismo, lamenta «la ausencia de todo tipo de filtro» en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años y critica que los niños se vean «expuestos a respuestas absolutamente no idóneas respecto a su nivel de desarrollo y conciencia». El Garante ha solicitado a OpenAI, según precisa el diario El País, que comunique en un plazo de veinte días las medidas que adoptará para dar cumplimiento a su petición o, de lo contrario, podría enfrentarse a una sanción de hasta 20 millones de euros o hasta el 4% de su cifra de negocio anual. La decisión de las autoridades del país transalpino se produjo solo unos días después de que se publicara una carta abierta en la que más de mil expertos en IA, emprendedores tecnológicos y científicos solicitaran al conjunto de la industria una pausa en el desarrollo y pruebas de herramientas de IA más potentes -entre ellas el modelo de lenguaje GPT 4 de OpenAI- con la intención de estudiar adecuadamente los riesgos que puedan plantear. El texto ha sido escrito por Future of Life Institute, organización sin ánimo de lucro fundada en 2014 cuya misión es orientar el progreso tecnológico hacia el beneficio común y alejarlo de posibles riesgos a gran escala para la humanidad. Entre los firmantes de la misiva se encuentran Elon Musk, CEO de SpaceX, Tesla y Twitter; Steve Wozniak, Co-Fundador de Apple; o Craig Peters, CEO de Getty Images. Enlace a la fuente original
Las iniciativas y opiniones que muestran su preocupación por el desarrollo aparentemente incontrolado de la inteligencia artificial han entrado en el campo normativo con el bloqueo a ChatGPT por parte de las autoridades italianas. La decisión se tomó el pasado viernes “con efecto inmediato” y se debe a que, según el país transalpino, el chatbot inteligente propiedad de la tecnológica OpenAI no respeta las leyes de protección de datos personales. El Garante para la Protección de Datos Personales, autoridad pública independiente que vela en Italia por la protección de los datos de los ciudadanos, ha decretado el bloqueo de ChatGPT pues considera que la herramienta recoge datos de forma ilegal. Al mismo tiempo, ha abierto una investigación para conocer de manera precisa el funcionamiento de la herramienta y determinar si ha infringido las normas de protección de datos. El bloqueo se mantendrá en tanto que ChatGPT no demuestre que cumple dichas normas. Las autoridades han informado de que el chatbot sufrió el pasado 20 de marzo una pérdida de datos personales El Garante ha informado de que el chatbot sufrió el pasado 20 de marzo una pérdida de datos de sus usuarios y de las conversaciones que estos mantienen con el sistema, así como de información de pago de sus abonados. El organismo subraya en su disposición de bloqueo «la falta de información a usuarios y a todas las partes interesadas” sobre el modo de recogida y gestión de los datos personales por parte de OpenAI y alude a «la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales con el fin de ‘adiestrar’ los algoritmos que gestionan el funcionamiento de la plataforma”. La resolución del organismo de protección de datos alega además que las informaciones por ChatGPT “no siempre se corresponden con los datos reales”, lo que a su vez da lugar a un tratamiento inexacto de los mismos. Asimismo, lamenta «la ausencia de todo tipo de filtro» en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años y critica que los niños se vean «expuestos a respuestas absolutamente no idóneas respecto a su nivel de desarrollo y conciencia». El Garante ha solicitado a OpenAI, según precisa el diario El País, que comunique en un plazo de veinte días las medidas que adoptará para dar cumplimiento a su petición o, de lo contrario, podría enfrentarse a una sanción de hasta 20 millones de euros o hasta el 4% de su cifra de negocio anual. La decisión de las autoridades del país transalpino se produjo solo unos días después de que se publicara una carta abierta en la que más de mil expertos en IA, emprendedores tecnológicos y científicos solicitaran al conjunto de la industria una pausa en el desarrollo y pruebas de herramientas de IA más potentes -entre ellas el modelo de lenguaje GPT 4 de OpenAI- con la intención de estudiar adecuadamente los riesgos que puedan plantear. El texto ha sido escrito por Future of Life Institute, organización sin ánimo de lucro fundada en 2014 cuya misión es orientar el progreso tecnológico hacia el beneficio común y alejarlo de posibles riesgos a gran escala para la humanidad. Entre los firmantes de la misiva se encuentran Elon Musk, CEO de SpaceX, Tesla y Twitter; Steve Wozniak, Co-Fundador de Apple; o Craig Peters, CEO de Getty Images. Enlace a la fuente original