Voluntariamente o no, los usuarios aportan un enorme volumen de información personal en la red. Algunas empresas usan la información para conocer los deseos, intereses o necesidades de sus usuarios. El sistema Big Data que permite recoger y organizar esa información ya se considera como una de las mayores revoluciones de las TIC de los último años.


La ansiedad de la industria por revitalizar el adormecido gasto de las empresas en tecnología de la información ha dado origen a otro de esos fetiches verbales que se repiten acríticamente: bigdata. Como, además, es directamente comprensible por quienes no saben inglés, la expresión circula sin obstáculos ni fronteras, y el marketing se ha apoderado de ella. Una inyección de optimismo siempre ayuda: según la consultora IDC, este mercado de software y servicios crecerá mundialmente al 31,7% anual hasta llegar en el 2016 a unos 18.000 millones de euros.

Definir el bigdata no es tan fácil como sugiere la frecuencia con la que se enuncia el cliché. Es el producto de tres fuerzas combinadas, la primera de las cuales es la enorme cantidad de información digital que se recoge, se almacena, se procesa y se analiza continuamente, mucha de la cual se pierde por el camino. La segunda es la heterogeneidad de esa información, que puede abarcar desde una compra on line hasta el perfil actualizado de los usuarios de Facebook, desde el registro del tráfico telefónico hasta el consumo de electricidad, desde los miles de millones (acaso ya son billones) de tuits hasta las fotos compartidas. Suma y sigue. Pero la tercera fuerza es verdaderamente crucial para que el bigdata se diferencie de las técnicas de tratamiento masivo de datos que son usuales desde hace años: la necesidad imperiosa de combinar, masticar y digerir la información tan rápido como sea posible para extraer su valor. Ya mismo.

Se da por sentada la asociación entre esta moda marketiniana sobre el bigdata y el fulgurante crecimiento de las colecciones de datos que acumulan Google, Facebook o Amazon, pioneros de los procesos de análisis a gran escala en tiempo real. Es verdad que algunas de esas técnicas usuales se desarrollaron dentro de Yahoo y Google antes de expandirse como software de código abierto que ha sido adoptado por las grandes empresas tecnológicas.

Lo que realmente importa es que los datos están ahí: los usuarios aportan de continuo, voluntariamente o no, a sabiendas o no, tal cantidad de información que –debidamente analizada– permite a esas empresas, y a muchas otras con las mismas técnicas, ejercer un seguimiento de sus deseos, intereses o necesidades, de sus convicciones y debilidades, y ese seguimiento puede hacerse –de hecho se hace– a través de sus propios dispositivos móviles.

No se trata, por tanto, de volúmenes binarios almacenados a granel y sin aprovechamiento directo. El director de tecnología de Amazon, Werner Vogels, precisa que los datos son sólo la materia prima que ayuda a su empresa a entender los intereses de los usuarios (algo parecido dirían sus colegas), por lo que la cuestión clave es la calidad, no la abundancia.

Las grandes cantidades de datos no son nada nuevo en ciertos sectores, y la informática ha creado durante años herramientas de análisis que aún son útiles, en la banca o en la gestión de inventarios. Según las épocas, han ido cambiando de nombre: de data warehousing a business analytics; su última encarnación sería el bigdata. Con un cambio importante, la incorporación de nuevos formatos, los llamados datos no estructurados, generalmente procedentes de las redes sociales y los blogs. Los estructurados son todavía mayoría, pero no se sabe por cuánto tiempo.

Como toda tecnología, recuerdan Nicholas Carr y Evgeni Morozov, dos escépticos contumaces, la potencia predictiva del bigdata puede ser usada para bien o para mal. Por ejemplo, la publicidad personalizada podría considerarse un avance o una intromisión, según para quién, pero en cualquier caso los críticos piensan que abre las puertas a la manipulación de los consumidores.

Que los datos facilitan la solución de los problemas, es una evidencia. Esto vale para la investigación genómica, la predicción meteorológica, la lucha antiterrorista o –ejemplo: la campaña de Obama 2012 es citada como caso de estudio– para persuadir a los votantes. Google nos dice qué noticias van a interesarnos, Amazon recomienda libros presuntamente afines a nuestros gustos, la tienda iTunes hace lo mismo con la música, y Facebook ayuda a ser consecuentes en la elección de amigos. De manera genérica, puede decirse que los consumidores aceptan que sus datos personales sean almacenados y gestionados por terceros. ¿Lo aceptan realmente?, se pregunta el incisivo Carr.

No necesariamente más volumen de datos significa obtener respuestas que sean adecuadas. La calidad de las respuestas no está inscrita en los propios datos –conjuntos diseñados por humanos– sino en el dominio de las disciplinas necesarias para sacar partido de ellos, en el conocimiento científico subyacente. ¿Y qué pasa en la práctica? Que la invención de un nuevo fármaco hoy depende más de los datos que de la química; en otro ejemplo tópico, que la investigación sobre petróleo exige grandes volúmenes de datos que el mejor equipo de geólogos no podría analizar por sí mismo.

De ello se desprende, afirman los evangelistas del bigdata, que las universidades deberían producir más científicos especializados en datos. Harvard Business Review ha desplegado esta tesis: la de data scientist será la profesión más sexy de los próximos años. Implícitamente, ahí está un cuello de botella para el avance rápido del bigdata.

La controversia más obvia tiene que ver con la intimidad de los usuarios. Nada menos que el World Economic Forum –más conocido por sus reuniones anuales en Davos– publicó este año un informe en el que recomienda cambios en la regulación para evitar infracciones contra la privacidad, que escapan al control de la imperfecta legislación vigente. Una de esas recomendaciones contempla que los datos almacenados sean etiquetados con un código de software que incluya las preferencias de uso que han registrado los usuarios. Pero, nuevamente, los críticos sostienen que sería confiar más en las herramientas que en las reglas.

Mientras tanto, el bigdata corre imparable.

 



Predicciones de futuro


No siempre las consultoras coinciden en sus predicciones sobre el futuro de la tecnología. IDC subraya que el ‘bigdata’ es uno de los campos de mayor crecimiento en los próximos años. Su competidora Gartner no lo niega, pero matiza que atravesará “un bache de desilusión” cuando haya pasado el listón de un 15%-20% de adopción por las empresas. Más allá de esa meseta –afirman los analistas de Gartner– tiene que evidenciarse que la aportación a la productividad es real.

Articles relacionats / Artículos relacionados

Suscríbete gratuitamente a nuestros boletines

Recibe noticias e ideas en Recursos Humanos.
Suscripción

Utilizamos cookies para ofrecer a nuestras visitas una mejor experiencia de navegación por nuestra web.
Si continúas navegando, consideramos que aceptas su utilización.