CONTACTANOS
Contactanos por Whatsapp

Informes

Siempre que tienes una aplicación o tecnología popular, es solo cuestión de tiempo hasta que los actores amenazantes la apunten. En el caso de ChatGPT, el exploit se produjo a través de una vulnerabilidad en la biblioteca de código abierto Redis. Esto permitió a los usuarios ver el historial de chat de otros usuarios activos.

Blog Details Image

Las bibliotecas de código abierto se usan “para desarrollar interfaces dinámicas almacenando rutinas y recursos accesibles y frecuentemente usados, como clases, datos de configuración, documentación, datos de ayuda, plantillas de mensajes, código y subrutinas preescritas, especificaciones de tipo y valores”, según una definición de Heavy.AI. OpenAI utiliza Redis para almacenar en caché la información de los usuarios para una recuperación y acceso más rápidos. Debido a que miles de contribuyentes desarrollan y acceden al código abierto, es fácil que se abran vulnerabilidades y pasen desapercibidas. 

En el gran esquema de las cosas, el exploit de ChatGPT fue menor, y OpenAI parcheó el error dentro de los días posteriores a su descubrimiento. Pero incluso un incidente cibernético menor puede causar mucho daño.

Sin embargo, ese fue solo un incidente a nivel superficial. A medida que los investigadores de OpenAI profundizaron, descubrieron que esta misma vulnerabilidad probablemente fue responsable de la visibilidad de la información de pago durante algunas horas antes de que ChatGPT fuera desconectado.

“Algunos usuarios pudieron ver el nombre y apellido, la dirección de correo electrónico, la dirección de pago, los últimos cuatro dígitos (solo) de un número de tarjeta de crédito y la fecha de vencimiento de la tarjeta de crédito de otro usuario activo. Los números completos de las tarjetas de crédito nunca fueron expuestos”, dijo OpenAI en un comunicado sobre el incidente.

IA, Chatbots y Seguridad Cibernética:

La fuga de datos en ChatGPT se abordó rápidamente con aparentemente poco daño, con suscriptores pagos afectados que representan menos del 1% de sus usuarios. Sin embargo, el incidente podría ser un presagio de los riesgos que podrían afectar a los chatbots y a los usuarios en el futuro.

Ya existen preocupaciones de privacidad en torno al uso de chatbots. Mark McCreary, el co-presidente de la práctica de privacidad y seguridad de datos en la firma de abogados Fox Rothschild LLP, dijo a CNN que ChatGPT y los chatbots son como la caja negra en un avión. La tecnología de IA almacena vastas cantidades de datos y luego usa esa información para generar respuestas a preguntas y solicitudes. Y todo en la memoria del chatbot se convierte en juego justo para otros usuarios.

Aumento de las restricciones en el uso de la IA:

Debido a preocupaciones sobre la privacidad, algunas empresas y países enteros están tomando medidas restrictivas. Por ejemplo, JPMorgan Chase ha restringido el uso de ChatGPT por parte de sus empleados debido a los controles de la empresa sobre el software y las aplicaciones de terceros, pero también hay preocupaciones sobre la seguridad de la información financiera si se introduce en el chatbot. Italia citó la privacidad de los datos de sus ciudadanos como razón para bloquear temporalmente la aplicación en todo el país. Los funcionarios declararon que la preocupación se debe al cumplimiento del GDPR.

Los expertos también esperan que los actores malintencionados utilicen ChatGPT para crear correos electrónicos de phishing sofisticados y realistas. Ya no hay errores gramaticales ni frases extrañas que hayan sido la señal característica de una estafa de phishing. Ahora, los chatbots imitarán a los hablantes nativos con mensajes dirigidos. ChatGPT es capaz de una traducción de idiomas sin interrupciones, lo que cambiará el juego para los adversarios extranjeros.

Una táctica igualmente peligrosa es el uso de la IA para crear campañas de desinformación y conspiración. Las implicaciones de este uso podrían ir más allá de los riesgos cibernéticos. Los investigadores utilizaron ChatGPT para escribir un artículo de opinión y el resultado fue similar a cualquier cosa encontrada en InfoWars u otros sitios web conocidos que promueven teorías de conspiración.

OpenAI responde a algunas amenazas:

Cada evolución de los chatbots creará nuevas amenazas cibernéticas, ya sea a través de habilidades de lenguaje más sofisticadas o a través de su popularidad. Esto convierte a la tecnología en un objetivo principal como vector de ataque. Con ese fin, OpenAI está tomando medidas para prevenir futuras violaciones de datos dentro de la aplicación. Está ofreciendo una recompensa por errores de hasta $20,000 a cualquier persona que descubra vulnerabilidades no informadas.

Sin embargo, The Hacker News informó que “el programa no cubre problemas de seguridad del modelo o de alucinación, en los que se le solicita al chatbot que genere código malicioso u otros resultados defectuosos”. Por lo tanto, parece que OpenAI quiere endurecer la tecnología contra ataques externos, pero está haciendo poco para evitar que el chatbot sea la fuente de los ciberataques.


Noticias relacionadas