Un nuevo estudio de la empresa de servicios Incapsula, indica que en internet, los humanos ya somos minoría en generar tráfico. Es decir, las páginas webs, los datos que consumimos con nuestras aplicaciones, son menos que los que las propias máquinas generan entre ellas.
Internet no es para las personas, es para las máquinas. Bots que se comunican con servidores o que hablan entre ellos y que según su estudio de 2016, los bots representan el 51,8% del tráfico de internet.
El l ininforme de Incapsula detalla los buenos de los malos bots, los que nos ayudan y los que quieren hacer de internet un sitio más sucio. Por ejemplo, la empresa indica que el 0,3% del tráfico en la red son robots de spammers que publican enlaces o textos de publicidad en foros o en comentarios. El 2,6% son herramientas de hackers en busca de vulnerabilidades para entrar en sistemas, el 1,7% bots usados para extraer datos y la ingeniería inversa.
Sorprendentemente, el 24,3% de los bots se usan para asumir identidades falsas e intentar acceder a sistemas que luego pueden usarse, por ejemplo, para ataques DDoS.
Dentro de los robots que identifican como “buenos”, están los robots que captan contenido de diferentes canales, como lectores de feeds, robots de buscadores (6,6%) que visitan cada página y enlace para indexar internet, robots de monitorización para asegurarse que una web o un servidor funciona correctamente o robots comerciales para mostrar datos, como analíticas.
Los bots se pueden usar bien o mal, como todas las herramientas que tenemos en internet. Por ejemplo, existen bots que hacen perder millones de dólares con ataques coordinados a una web o servicio, como pasó en octubre de 2016 dejando sin acceso a millones de personas. También existen los que generan páginas vistas, inflando las visitas de webs para cobrar más de la publicidad que instalan en estas webs.
forme de Incapsula detalla los buenos de los malos bots, los que nos ayudan y los que quieren hacer de internet un sitio más sucio. Por ejemplo, la empresa indica que el 0,3% del tráfico en la red son robots de spammers que publican enlaces o textos de publicidad en foros o en comentarios. El 2,6% son herramientas de hackers en busca de vulnerabilidades para entrar en sistemas, el 1,7% bots usados para extraer datos y la ingeniería inversa.
Sorprendentemente, el 24,3% de los bots se usan para asumir identidades falsas e intentar acceder a sistemas que luego pueden usarse, por ejemplo, para ataques DDoS.
Dentro de los robots que identifican como “buenos”, están los robots que captan contenido de diferentes canales, como lectores de feeds, robots de buscadores (6,6%) que visitan cada página y enlace para indexar internet, robots de monitorización para asegurarse que una web o un servidor funciona correctamente o robots comerciales para mostrar datos, como analíticas.
Los bots se pueden usar bien o mal, como todas las herramientas que tenemos en internet. Por ejemplo, existen bots que hacen perder millones de dólares con ataques coordinados a una web o servicio, como pasó en octubre de 2016 dejando sin acceso a millones de personas. También existen los que generan páginas vistas, inflando las visitas de webs para cobrar más de la publicidad que instalan en estas webs.
Miguel Rosero, editor de la revista impresa y online Eventos En Red. Profesional de la comunicación y la tecnología.