El uso de la Inteligencia Artificial está abarcando cada vez más y más ámbitos de nuestras vidas, pero si uno ha marcado un auténtico boom ese ha sido ChatGPT y los chatbots potenciados por IA. Se trata de armas de doble filo, pues el uso de estos puede plantear riesgos significativos para la seguridad de la información y la privacidad de los datos. Descubre cómo los ciberdelincuentes están utilizando ChatGPT para fines maliciosos y cómo protegerte contra estos riesgos.
Parece que ChatGPT viene para quedarse. El último gran boom de la Inteligencia Artificial está penetrando sobre todo en la forma de los chatbots. Estas herramientas capaces de generar texto de forma automática tienen un montón de utilidades y unas posibilidades prácticamente ilimitadas. Por desgracia, esto también lo saben los ciberdelincuentes, quienes quieres retorcer los límites de lo que Chat GPT puede hacer.
Usos de ChatGPT por los ciberdelincuentes
Hace unos días se ponía de manifiesto la preocupación por el peligro que puede llegar a suponer el progreso en los chatbots potenciados por Inteligencia Artificial. Elon Musk y un grupo de expertos en Inteligencia Artificial y ejecutivos de la industria piden una pausa de seis meses en el desarrollo de sistemas más potentes que el recientemente lanzado GPT-4 de OpenAI.
Sortlist ha hecho una encuesta a 550 personas en 6 países que han leído la carta para conocer sus perspectivas sobre ella y ver si influyen o no en su opinión general sobre la IA. Algunas de las conclusiones que se extraen son las siguientes:
- 1 de cada 4 personas tiene una opinión más positiva de la IA después de leer la carta abierta.
- El 66% de las personas están preocupadas por la velocidad y la dirección a la que se está desarrollando la IA y apoyan la pausa que se describe en la carta.
- Las mujeres están ligeramente más a favor de esta “pausa”, con un 68%, frente a los hombres, con un 63%.
- El 69% de las personas considera que los recientes avances de la IA son negativos o neutrales para la sociedad.
- El 42% de las personas votaría más a favor de un gobierno que impusiera una pausa en el desarrollo de la IA y una regulación estricta.
El Instituto Nacional de Ciberseguridad, más conocido como INCIBE, tampoco es ajeno a esta preocupación en la sociedad y desde su propio campo ya está experimentando una serie de usos por parte de los ciberdelincuentes que añade más leña al fuego.
Hay varios riesgos de seguridad que pueden surgir al utilizar chatbots impulsados por IA. Por ejemplo, si un atacante es capaz de comprometer el chatbot, podría acceder a información sensible de la empresa o de sus clientes. Además, si el chatbot es capaz de procesar pagos, podría ser utilizado por un atacante para llevar a cabo transacciones fraudulentas. El organismo recomienda a las empresas que implementen medidas de seguridad adecuadas, como el cifrado de datos y la autenticación de usuarios, para protegerse contra estos riesgos.
Otro riesgo que menciona el INCIBE es el de la privacidad de los datos. Debido a que los chatbots impulsados por IA pueden recolectar y procesar grandes cantidades de información personal de los clientes, las empresas deben tener cuidado de cumplir con las leyes y regulaciones de privacidad de datos, como el Reglamento General de Protección de Datos de la Unión Europea (RGPD). Se recomienda a las empresas que evalúen cuidadosamente los proveedores de chatbot y que implementen medidas de privacidad de datos adecuadas, como la anonimización de datos y la obtención del consentimiento de los usuarios antes de recolectar información personal.
Como los chatbots son capaces de generar respuestas autónomas, es importante que las empresas expliquen claramente a los usuarios que están interactuando con un chatbot y no con un humano. Esto es especialmente importante cuando se trata de cuestiones sensibles, como la salud o las finanzas.
Otros usos fraudulentos pueden ser la generación de noticias falsas; como ChatGPT no solo es capaz de generar texto, también puede desarrollar código en diferentes lenguajes de programación. De esta forma, los ciberdelincuentes pueden usarlo para crear software malicioso o incluso generar mensajes de phishing en los que logran hacer el mensaje más creíble y hay más posibilidades de que la víctima «muerda el anzuelo».
¿Cómo evitar algunos de estos riesgos?
Lo principal es adoptar en ChatGPT otras de las normas básicas que también se deben seguir en materia de ciberseguridad en otros ámbitos de Internet, como no acceder a enlaces sospechosos o poco fiables, o contar con contraseñas robustas y actualizarlas regularmente. Nunca se deben compartir las contraseñas a través de este medio.
Además, el INCIBE recomienda que las empresas proporcionen a los usuarios la opción de hablar con un humano en cualquier momento durante la interacción con el chatbot.
The post Tan útil como peligroso: así usan los ciberdelincuentes ChatGPT para sus ataques appeared first on ADSLZone.