(ABC| RODRIGO ALONSO | TECNOLOGÍA l 14/7/2023)
La FTC quiere dilucidar si la empresa ha infringido las leyes de protección del consumidor del país
La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) ha abierto una investigación a OpenAI, empresa creadora de ChatGPT, para dilucidar si la empresa detrás de la máquina parlante movida por inteligencia artificial ha infringido las leyes de protección del consumidor en la recopilación de datos de los usuarios y al generar contenido falso.
Según informa ‘The Washington Post‘, medio que adelantó la noticia, la FTC envió una carta a OpenAI esta semana en la que se cuestiona a la empresa sobre el entrenamiento que emplea para capacitar a ChatGPT y el tratamiento que hace de los datos personales que los usuarios vierten en su interior.
La empresa de inteligencia artificial dirigida por Sam Altman lleva meses levantando suspicacias por la falta de transparencia sobre el uso de que hace de la información de los usuarios y el entrenamiento al que somete a su máquina, que sigue sin estar claro.
Estas dudas motivaron, por ejemplo, que el pasado mes de abril Italia decidiese bloquear el acceso al robot conversacional durante semanas. En la UE, agencias de protección de datos, entre ellas la española, han abierto investigaciones a la empresa por el uso que hace de la información de los internautas.
Entre las preguntas que la FTC lanza a OpenAI se consulta, por ejemplo, las medidas que ha tomado la empresa para abordar el potencial de su IA para «generar declaraciones sobre personas reales que son falsas, engañosas o despectivas». Algo que ya ha ocurrido. Hace unos meses, el alcalde de una ciudad australiana llegó a amenazar con demandar a la startup después de comprobar que ChatGPT afirmaba falsamente que había sido condenado a 30 años de cárcel.
La FTC también consulta a la compañía sobre un fallo en los sistemas de su máquina el pasado marzo que dejó al descubierto conversaciones e información sensible de muchos usuarios. La empresa entonces lanzó un comunicado en el que apuntaba que el número de personas que se habían visto afectadas había sido extremadamente baja.
La consulta de la FTC llega en un momento en el que reguladores de todo el mundo están cada vez más preocupados acerca del peligro de dejar que los sistemas de inteligencia artificial sigan desarrollándose sin control. La UE espera aprobar a finales de año la Ley de Inteligencia Artificial, que, entre otras cosas, obligará a las plataformas que desarrollen máquinas como ChatGPT a evitar que generen contenido ilegal. También deberán publicar resúmenes de datos protegidos por derechos de autor utilizados para la capacitación de las máquinas.