Compartir:
OpenAI ha dado a conocer un informe de investigación, conocido como «System Card», sobre su modelo más reciente, GPT-4o. La compañía, que ha enfrentado críticas por priorizar la innovación sobre la seguridad, ha decidido revelar los resultados de las pruebas de seguridad realizadas por un grupo externo de expertos en ciberseguridad.
Según el informe, el equipo de red testing, encargado de identificar debilidades y riesgos en el modelo, evaluó a GPT-4o en cuatro categorías: Ciberseguridad, Amenazas Biológicas, Persuasión y Autonomía del Modelo. Los resultados mostraron que GPT-4o representa un «riesgo medio» en general, aunque se destacó como «bajo riesgo» en todas las categorías excepto en Persuasión.
El informe revela que, aunque la capacidad del modelo para persuadir mediante su función de voz fue calificada de «bajo riesgo», tres de las doce muestras de escritura generadas por GPT-4o demostraron una capacidad superior para influir en la opinión de los lectores en comparación con textos escritos por humanos. A pesar de que GPT-4o fue más persuasivo que el contenido humano solo en una de cada cuatro ocasiones, las pruebas se centraron particularmente en la capacidad del modelo para influir en opiniones políticas, justo antes de las elecciones en Estados Unidos.
Esta publicación del «System Card» busca demostrar el compromiso de OpenAI con la seguridad, especialmente después de enfrentar críticas sobre su enfoque hacia la innovación a expensas de la seguridad. Estas críticas incluyen salidas rápidas de miembros clave del equipo y un reciente carta abierta de la senadora Elizabeth Warren, exigiendo aclaraciones sobre cómo OpenAI maneja las revisiones de seguridad.
El informe plantea una inquietud importante: ¿existe un riesgo potencial de que GPT-4o pueda ser utilizado para difundir información errónea o influir en la opinión pública durante eventos electorales? La respuesta a esta pregunta será crucial para entender las implicaciones futuras de esta tecnología en la esfera política y social.