Septiembre 9, 2016
La burbuja artificial de la Inteligencia Artificial y el futuro de la ciberseguridad
Creo que el reciente artículo del New York Times sobre el bum de la “inteligencia artificial” en Silicon Valley hizo que mucha gente pensara negativamente sobre el futuro de la ciberseguridad, tanto a corto como a largo plazo.
Considero que se han sopesado cuestiones como estas:
- ¿Hacia dónde lleva la maníaca preocupación por la “inteligencia artificial”, la cual solo existe en las fantasías de los futurólogos?
- ¿Cuántos millones más invertirán las empresas para que, en el mejor de los casos, se “invente” algo que ya existe desde hace décadas, y que solo será marketing inflado?
- ¿Cuáles son las oportunidades reales de desarrollar máquinas inteligentes con tecnologías de ciberseguridad?
- ¿Cuál será el rol de los humanos expertos en este mundo nuevo?
A veces, cuando estoy con los fans de la “I.A.” en Valley, me siento como un ateo en una convención de evangélicos.
– Jerry Kaplan, informático, autor, futurista y pluriemprendedor (confundador de Symantec)
Lo que ahora sucede en el campo de la “inteligencia artificial” se parece a una pompa de jabón. Y todos sabemos lo que sucede con las pompas al final, cuando las soplan los payasos de circo: explotan.
Está claro que sin pasos atrevidos ni inversiones arriesgadas, un futuro fantástico nunca será posible. Pero el problema es que con esta ola de entusiasmo por la “inteligencia artificial” (recordad que hoy por hoy no existe, de ahí las comillas), han empezado a aparecer las empresas emergentes.
¿Algunas empresas emergentes? Te preguntarás cuál es el problema.
El problema es que estas pequeñas empresas están atrayendo miles de millones de dólares en inversiones al navegar en la nueva ola de euforia que rodea al “IA” aprendizaje automático. La cuestión es que el aprendizaje automático lleva con nosotros desde hace décadas: se definió en 1959, empezó en los 70, floreció en los 90 y continúa en ello. Llegamos a nuestra época y han renombrado esta “nueva tecnología” como “inteligencia artificial”; parece algo innovador de la ciencia; tiene los folletos más brillantes; las mejores y más sofisticadas campañas de marketing. El objetivo de todo ello es la debilidad humana por creer en los milagros (y en las teorías de conspiración sobre las tecnologías tradicionales). Y, tristemente, el campo de la ciberseguridad no ha escapado de esta nueva burbuja de “IA”…
En la ciberseguridad, se presentan nuevos y “revolucionarios” productos, como por arte de magia, para resolver todos los problemas de seguridad y proteger a todos y a todo de cualquier amenaza de un solo golpe: Las empresas emergentes no se detienen ante nada para presentar la información de un modo que manipule a la opinión pública y que difunda equivocadamente la situación real.
Mientras tanto, en realidad, dentro de estos productos revolucionarios no hay “tecnología reciente”. Hay tecnología que data de la época de ¡la máquina de vapor! Pero ¿quién se fija? ¿Quién permitirá que se vigile? Para saber más sobre esta situación, haz clic aquí.
Algunas de estas empresas han llegado tan lejos como si contaran con una oferta pública de venta. A algunos de los inversores les puede ir bien (si revenden su parte rápidamente); pero a largo plazo se trata de un mercado decepcionante. Ya que un negocio fundado con marketing basura no da bonificaciones y la declive en el precio de las acciones tras el pico es imparable. Mientras tanto, esa máquina del marketing necesita recibir pagos… y no es barata.
Ningún capital de riesgo de la I.A. de la ciberseguridad ha conseguido beneficios
Echemos la vista atrás.
El capitalismo de riesgo se llama así porque implica un riesgo. Un buen accionista de riesgo es aquel que sabe cuál es el mejor lugar para colocar el capital (y cuánto) para poder conseguir una buena ganancia en cierto numero de años. Sin embargo, hay un matiz cuando se trata de la “inteligencia artificial”: ¡ninguna empresa de ciberseguridad de inteligencia artificial ha tenido ganancias aún! Entonces, ¿por qué invertiría en ello un accionista de riesgo? Buena pregunta.
El objetivo principal de los modelos de negocio para la mayoría de las empresas de Silicon Valley (no todas, hay excepciones) es no llevar a cabo investigaciones serias o caras que hagan aparecer productos y tecnologías útiles que se venderán bien. En su lugar, quieren crear burbujas; atrayendo inversionistas, vendiendo su parte rápidamente con un precio basado en la “valoración de futuras ganancias” y luego… bueno, el desastre (pérdidas masivas) serán problema de otro. Pero esperad. Se pone interesante: los ingresos solo ENTORPECEN modelos de este tipo.
No se trata de cuánto ganes, se trata de si vales la pena. ¿Y quién vale más la pena? Las compañías que pierden dinero.
Este es un modelo de negocios típicos en 75 segundo por la serie de televisión Silicon Valley (aunque sea muy graciosa, ¡se basa en la realidad!)
Las burbujas de inteligencia artificial evocan a la del mercado de bienes del 2008 en Estados Unidos, la cual creció rápidamente durante la crisis financiera mundial. La pirámide de subproductos de inversión basada en hipotecas subprime se ajustaba a mucha gente: millones de personas sacaron provecho de ella y decenas de miles sacaron aún más provecho. Y después, bum: la pirámide empezó a derribarse, la economía mundial empezó a tambalearse y se taparon los agujeros con el dinero de los contribuyentes para evitar un Armagedón financiero (por supuesto, los contribuyentes eran las mismas personas y compañías que ganaron el dinero en primer lugar). ¿No sabíais nada del escándalo de la década? Entonces, tenéis que ver la película La gran apuesta.
Como si el recuerdo no fuese suficiente, la burbuja de inteligencia artificial contiene otro peligro: desprestigiar el aprendizaje automático: uno de los subcampos más prometedores de la ciberseguridad.
¿Qué hay de peligroso en ello? Bueno, gracias al aprendizaje automático, la humanidad no se ha ahogado en una masa gigantesca de información, la cual, en los últimos años, ha crecido demasiado.
Por ejemplo, la cantidad de programas maliciosos en 10 años ha crecido mil veces: a principios de siglo, analizábamos 300 bits diarios de malware, ahora esa cifra tiene tres ceros más. Y ¿cuántas veces ha crecido el número de analistas? Cuatro. Así que ¿cómo nos mantenemos? Con aprendizaje automático.
Volvamos al presente. El 99% de los ataques que detectamos son detectados en realidad por nuestros sistemas automatizados. Suena a que nuestros analistas casi no tienen trabajo, ¿verdad? Pues es todo lo contrario. Se ocupan de afinar estos sistemas para que sean más efectivos y de desarrollar sistemas nuevos.
Por ejemplo, tenemos expertos que solo se dedican a descubrir ciberataques realmente complejos, quienes después transfieren todos sus conocimientos y habilidades a los sistemas automatizados. Luego están los expertos en las ciencias de la información, quienes experimentan con distintos modelos y métodos de aprendizaje automático.
A diferencia de las empresas emergentes, nosotros protegemos a los usuarios con una gigantesca infraestructura en la nube, la cual es capaz de resolver rápida y efectivamente tareas mucho más complejas. Y sí, es por ello que utilizamos tantos modelos diferentes de aprendizaje automático.
Los únicos ciberataques que investigamos manualmente son los más complejos. Incluso en esos casos, con toda la tecnología que contamos, todavía tenemos problemas para encontrar suficientes miembros para el equipo de especialistas, pues el número de requisitos que necesitamos en los potenciales analistas de KL va siempre en aumento.
Tarde o temprano, el circo de la “inteligencia artificial que salva al mundo” terminará. Los expertos finalmente podrán probar los productos, los usuarios se darán cuenta de que han sido estafados y los inversionistas perderán interés. Pero ¿cómo se desarrollará el aprendizaje automático en el futuro?
Silicon Valley se ha enfrentado a un falso inicio de la I.A. Durante los años 80, una generación anterior de emprendedores también creyó que la inteligencia artificial era el futuro y aparecieron empresas emergentes. Sus productos ofrecían poco valor de negocio en la época y el entusiasmo comercial terminó en decepción, lo que llevó al período conocido como “el invierno de la I.A.”.
– John Markoff, New York Times
Cuando surjan las consecuencias del estallido de la burbuja de la inteligencia artificial, todos los sectores similares sufrirán inevitablemente. ¿Aprendizaje automático? ¿Redes neuronales? ¿Detección de comportamiento? ¿Análisis cognitivos? No, gracias; no quiero saberlo. La verdad es que ni me acercaría a nada de eso.
Y el asunto empeora: la maldición de la inteligencia artificial entorpecerá el interés en las tecnologías prometedoras durante varios años, como en los 80.
Aun así, los vendedores establecidos continuarán invirtiendo en tecnologías inteligentes. Por ejemplo, hemos introducido tecnologías de estimulación y aprendizaje en árboles de decisión para detectar ataques dirigidos sofisticados y protección proactiva contra futuras amenazas (sí, amenazas que aún no existen).
Un área prometedora de desarrollo se encuentra en el aumentar la complejidad de las imágenes correlativas de eventos en todos los niveles de la infraestructura y futuro análisis del panorama de la información para detectar los ciberataques más complejos de forma acertada y confiable. Nosotros ya contamos con estas características en nuestra plataforma KATA y esperamos desarrollar más.
Pero, ¿cómo le irá a las empresas emergentes de aprendizaje automático honestas? Por desgracia, el abuso del término IA solo ralentizará su desarrollo.
Sin embargo, ese progreso no se detendrá: continuará, aunque a una velocidad menor.
La humanidad seguirá avanzando lentamente, pero seguro que hacia la automatización de todo lo que se encuentre bajo el sol, hasta el más pequeño y trivial de los procesos diarios. Y no solo se trata de automatización, también de la interacción adaptable entre el hombre y las máquinas (con algoritmos superavanzados de aprendizaje automático). Esta interacción adaptable podemos verla a diario y la velocidad con la que se esparce a veces da miedo.
Hackers Make the First-Ever Ransomware for Smart Thermostats https://t.co/pg764iuMkY by @lorenzoFB pic.twitter.com/AUzm9Cbjhh
— Eugene Kaspersky (@e_kaspersky) August 8, 2016
El campo de la ciberseguridad también verá que también crece su automatización.
Por ejemplo, nosotros ya tenemos la solución para incorporar la seguridad en el paradigma de las “ciudades inteligentes” incluyendo varios aspectos robóticos (como el manejo del tránsito automático) para el control de la infraestructura crítica. Y el déficit de expertos se volverá más agudo, no por el crecimiento de la tecnología, sino por la creciente demanda de habilidades del personal. Los sistemas de aprendizaje automático de la ciberseguridad requieren de un conocimiento enciclopédico y habilidades específicas en un amplio rango de áreas (incluyendo el big data, informática forense de investigación y programación de sistemas y aplicaciones). Tener todo este conocimiento en un ser humano es algo complicado; es lo que los hace especialistas de élite. Y enseñar todos estos conocimientos tampoco es fácil. Pero aun así, tiene que hacerse, si es que queremos ver un desarrollo real de las tecnologías inteligentes. No hay otro modo.
Así que, ¿quién estará a cargo en este mundo del futuro? ¿El hombre seguirá controlando a los robots? ¿O será al revés?
En 1999, Raymond Kurzweii hizo una teoría sobre intelecto simbiótico (aunque ya existían algunas otras ideas): la fusión del hombre y la máquina, un organismo cibernético que combina la inteligencia de los humanos y el poder de los superordenadores (“inteligencia de humáquinas”). Pero esto no es ciencia ficción, ya está ocurriendo. Y, conforme avance su desarrollo, en mi humilde opinión, no solo es lo más probable, también la más beneficiosa hacia el desarrollo de la humanidad.
Pero ¿llegará al punto de la particularidad tecnológica el desarrollo de la fusión del hombre y la máquina? ¿Perderá el hombre la habilidad de mantener el control y serán las máquinas las que tomen el control del mundo?
La función clave de la inteligencia artificial es la habilidad de mejorar y perfeccionarse siempre sin la intervención del hombre, una habilidad que puede crecer y crecer para al final salirse de sus algoritmos. En otras palabras, la inteligencia artificial pura es una nueva forma de intelecto. Y el distante, pero, en teoría probable, día de “salir del algoritmo” señalará el comienzo del fin del mundo como lo conocemos. Para beneficio de la humanidad, debido a las leyes de la robótica, las máquinas podrán deshacerse de nuestro sufrimiento mental y de la carga de existir.
I.A.: ¿Un verdadero avance de la ciberseguridad o solo marketing? @E_Kaspersky ataca la burbuja de la I.A. y alaba el aprendizaje automático #AI_OILTweet
O ¿quizá un programador, como a veces sucede, dejará algunos bugs en el código? Veremos que sucede.