La inteligencia artificial (IA) es una amenaza para la ciberseguridad. Así de rotundo se muestra Bill Gates en un artículo publicado en Gates Notes, el blog personal del magnate estadounidense que, junto al desaparecido Paul Allen, fundó el gigante tecnológico Microsoft allá por 1975.
IA: un peligro para las personas, los gobiernos y la democracia
Entre otros asuntos de interés, el filántropo dedica uno de los apartados de su artículo al empleo de la IA contra personas y gobiernos. Al respecto, opina que los modelos de IA ayudarán a los piratas informáticos a escribir un código más efectivo. De igual manera, podrán servirse de información de personas, como dónde trabajan y quiénes son sus amigos, con el objetivo de llevar a cabo campañas de phishing más sofisticadas.
Asimismo, Bill Gates cree que la IA representa un importante riesgo a nivel global. Concretamente, advierte que dicha tecnología puede usarse para diseñar y lanzar ciberataques contra países. Y desencadenar una carrera para crear armas cibernéticas muy peligrosas. En este sentido, propone a los gobiernos crear una agencia global, específica para la IA, similar al Organismo Internacional de Energía Atómica (IAEA, por sus siglas en inglés).
Del mismo modo, al empresario le preocupa la facilidad con la que es posible generar deepfakes –utilizados, entre otros fines, para atacar a EEUU y ensalzar a China–. Sobre dicha cuestión, considera factible que un vídeo falso llegue a condicionar el resultado de unas elecciones presidenciales.
Bill Gates, optimista: la IA se puede utilizar para defenderse
Pero, lejos de ver el vaso medio vacío, Bill Gates se muestra optimista en su artículo. Así, observa que “la buena noticia es que la IA se puede utilizar para buenos propósitos. Los equipos cibernéticos públicos y privados deben contar con las últimas herramientas para encontrar y reparar fallas de seguridad antes de que los ciberdelincuentes las aprovechen. Esta debería ser una de las principales preocupaciones de la industria del software”.
“Además”, prosigue, “la IA ayuda a identificar imágenes o grabaciones de voz falsas. Por ejemplo, Intel ha desarrollado un detector de deepfakes. Y la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés) de EEUU está trabajando en tecnología para descubrir si se ha manipulado un vídeo o un audio”, concluye.
Archivado en: