ia responsable

Inteligencia artificial sin ética es un riesgo invisible que amenaza a las empresas



Dirección copiada

Inside Security llama a potenciar la ciberseguridad corporativa en la adopción responsable de nuevas tecnologías. Según VPNRanks, este año habrá 1,31 millones de quejas por ciberataques impulsados por IA, con pérdidas potenciales de US$18,6 mil millones.

Publicado el 7 nov 2025



Inteligencia artificial

La inteligencia artificial ha evolucionado, pasando de ser una expectativa tecnológica a convertirse en un componente esencial en el funcionamiento de innumerables empresas. No obstante, la rapidez con la que ha ingresado en el ámbito operativo está dejando desatendida una dimensión crucial: la consideración ética y el control sobre las decisiones que se llevan a cabo de forma automática.

Hoy en día, los ataques cibernéticos son llevados a cabo con tecnología que puede replicar voces, falsificar identidades y comprometer sistemas empresariales en cuestión de segundos. Mientras tanto, los deepfakes se utilizan para reemplazar identidades en videoconferencias, autenticaciones y verificaciones biométricas.

La alerta es que este tipo de estafas crecerá rápidamente en los años venideros, a medida que la tecnología se propague y los métodos delictivos se vuelvan más accesibles para aquellos que carecen de conocimientos técnicos avanzados. En este escenario, el ransomware sigue siendo el ataque más costoso para las compañías, mientras que el phishing se posiciona como el principal vector en América Latina, experimentando un rápido aumento impulsado por la inteligencia artificial generativa, de acuerdo con Prey Project.

En tanto, la UNESCO ha destacado que la falta de principios éticos en la automatización puede poner en peligro derechos esenciales, intensificar sesgos y causar graves daños a la reputación de las instituciones. En otras palabras, además del efecto económico inmediato, existen grandes peligros legales y reputacionales.

En este contexto, David Pereira, gerente general de la consultora especializada en ciberseguridad Inside Security, explica que “las empresas están invirtiendo en tecnología inteligente, pero se están quedando atrás en gobernanza y ética digital. La IA puede volverse un arma de doble filo si no sabemos con qué datos toma una decisión, quién la supervisa y qué valores la guían”.

El profesional de Inside Security indica que son tres los pilares críticos que las compañías deben considerar para que la IA no se transforme en su principal vulnerabilidad. Primero, están los temas relacionados con a la ética, los que permitirán evitar sesgos, manipulación de información y riesgos reputacionales. En segundo lugar está la protección de datos, que podrá resguardar la soberanía digital ante filtraciones y usos indebidos y, por último, la transparencia ayudará a exigir modelos explicables y auditables en decisiones automatizadas.

“La pregunta ya no es solo cómo aprovechar la IA, sino a qué costo. Cada vez que una máquina decide sin supervisión humana, la línea entre innovación y abuso se vuelve más delgada. La ciberseguridad del futuro dependerá tanto del código como de los principios que lo sostienen”, recalca Pereira.

La inteligencia artificial llegó para quedarse y adquiere conocimientos más rápidamente de lo que podemos establecer regulaciones. La auténtica ventaja competitiva no radicará en quién implemente primero esta tecnología, sino en quién lo haga de manera responsable. La seguridad ahora implica no solo salvaguardar sistemas, sino también resguardar la confianza.

Artículos relacionados