Category: Big Data e Inteligencia Artificial

Este jueves 28 de marzo tendrá lugar en la Fundación Valentin de Madariaga en Sevilla, una jornada centrada en “Big Data Analytics: tu llave al mundo profesional” organizada por el Máster de Ingeniería Industrial de la Escuela de Ingenieros (Tecnun) de la Universidad de Navarra. Esta jornada cuenta con la colaboración de Jaime Martel, Director Técnico de ITELLIGENT con más de diez años de experiencia en el sector Big Data & Data Science.

El objetivo de esta jornada sobre analítica de grandes volúmenes de datos es aprender nociones básicas, claves y casos realistas de un tema actual para ingenieros que buscan liderar y gestionar las empresas del mañana.  La inscripción a esta actividad es totalmente gratuita y puedes hacerlo a través de este formulario. Agradecemos tanto a Tecnun como a Fundación Valentín de Madariaga la organización del mismo.

big data analytics tecnun

La Analítica Empresarial o Business Analytics permite conseguir los objetivos empresariales, a partir del análisis de datos. Básicamente permite detectar tendencias y realizar pronósticos a partir de modelos predictivos y utilizar estos modelos para optimizar los procesos de negocio.

Una forma de clasificar la Analítica Empresarial o Business Analytics podría ser estas tres áreas más o menos superpuestas:

  • Analítica Descriptiva o Descriptive Analytics: Utiliza los datos para explicar el pasado. Consiste en preparar y analizar datos históricos para identificar patrones y tendencias. Técnicas como modelos de regresión, el modelado de datos y visualización suelen ser usados en la Analítica Descriptiva.
  • Analítica Predictiva o Predictive Analytics: Utiliza los datos para determinar que puede pasar en el futuro. La Analítica Predictiva permite determinar la probabilidad asociada a eventos futuros a partir del análisis de la información disponible (presente y pasada), además permite descubrir relaciones entre los datos que normalmente no es detectada con un análisis menos sofisticado. Técnicas como la minería de datos (data mining) y los modelos predictivos son utilizados.
  • Analítica Prescriptiva o Prescriptive Analytics: Utiliza los datos para prescribir aquellas acciones que incrementen nuestras posibilidades de obtener los mejores resultados. La Analítica Prescriptiva determina nuevos forma de operar que permitan alcanzar nuestros objetivos de negocio. Técnicas como la optimización o la simulación son utilizadas, aunque normalmente se requiere la creación de un modelo predictivo previo.

 

 

  • La primera edición de la escuela de Machine Learning en Sevilla de BigML reúne a 92 empresas y grandes organizaciones nacionales e internacionales.
  • 184 asistentes de 13 países acuden a Sevilla el 7 y 8 de marzo y posicionan a la capital andaluza como referente de la tecnología e innovación

Machine Learning School en Sevilla 2019

Machine Learning School in Sevilla que ha contado con la colaboración de la Consejería de Economía, Conocimiento, Empresas y Universidad, el Ayuntamiento de Sevilla y Cibersur, y los patrocinios de ITelligent,  La Caseta y qosITconsulting. Durante el 7 y 8 de marzo en el salón de actos de EOI Andalucía, 184 empresarios, analistas y científicos de todo el mundo se reunieron en Sevilla para asistir al mayor evento internacional de Machine Learning celebrado en Andalucía, la primera edición de la escuela de Machine Learning de BigML (MLSEV).

Los asistentes vinieron de 13 países (Andorra, Brasil, China, Dinamarca, España, Estados Unidos, India, Inglaterra, Irlanda, Italia, Líbano, Países Bajos y Portugal) para disfrutar de un evento de dos días de duración que ofreció clases magistrales, talleres prácticos para
trabajar los conceptos aprendidos y sesiones con casos de uso reales sobre cómo varias empresas nacionales e internacionales como Rabobank, TDK, T2Client, Talento Corporativo, SlicingDice, Jidoka, Good Rebels y AlterWork ya están aplicando el Machine Learning en sectores muy diversos como la banca, industria, marketing y el sector legal, entre otros.

Durante la inauguración y clausura de la primera edición de la escuela de Machine Learning de BigML en Sevilla, nos acompañaron el Secretario General de Empresa, Innovación y Emprendimiento en Junta de Andalucía, Manuel Ortigosa; el Secretario General de Economía en Junta de Andalucía, Manuel Alejandro Hidalgo; el Secretario General de Industria y de la Pequeña y Mediana Empresa del Ministerio de Industria, Comercio y Turismo, del Gobierno de España, Raúl Blanco; y Francisco Velasco, Director de la Escuela de Organización Industrial de Andalucía, también incluidos en la imagen de arriba.

Machine Learning School en Sevilla 2019 cartel

  • Detecta y extrae metadatos de más de mil tipos de archivos de diferentes formatos con esta herramienta útil para la indexación y el análisis de contenido.
  • Además de proporcionar extracción de contenido y metadatos es capaz de identificar idioma.

apache tika

Apache Tika es un framework de análisis y detección de contenido escrito en Java y administrado por Apache Software Foundation. Se trata de un kit de herramientas que detecta y extrae metadatos y contenido de texto de más de mil tipos y formatos de archivos diferentes, tales como Word, Excel, PDF, JPG ó Mp4, por ejemplo. Además de proporcionar una biblioteca de Java, proporciona extracción de contenido, extracción de metadatos y capacidad de identificar idioma.

Mientras que Tika está escrito en Java, se usa ampliamente en otros idiomas. El servidor RESTful y la herramienta CLI permiten que los programas que no son de Java accedan a la funcionalidad de Tika.

Todos los archivos multimedia y basados ​​en texto se pueden analizar mediante una interfaz común, lo que convierte a Tika en una biblioteca potente y versátil para el análisis de contenido. Tika es utilizada tanto por instituciones financieras como FICO y Goldman Sachs, por la NASA como por investigadores académicos. Tambien, es utilizada por los principales sistemas de gestión de contenido -como Drupal- para analizar grandes cantidades de contenido y hacerlos accesibles en formatos comunes, utilizando técnicas de recuperación de información.

periodismo de datos

Tika y el periodismo de datos: los Papeles de Panamá

Ya como parte de la historia del periodismo de datos, el 4 de abril de 2016, la revista Forbes publicó un artículo donde identificaba a Tika como una de las tecnologías clave utilizadas por más de 400 periodistas para analizar millones de documentos filtrados. Este grupo de periodistas de diferentes países sacaban a la luz el escándalo internacional en el que líderes mundiales almacenaban dinero en sociedades offshore. Gracias a esta tecnología, fue posible detectar nombres entre miles de documentos y extraer información relevante para la sociedad. Estos famosos documentos filtrados, al grupo de periodistas de datos para analizarlos y el proyecto en sí, se les conoce como los Papeles de Panamá o Panamá Papers

Tal como se describe en el artículo de Forbes sobre los Papeles de Panamá:

“Todo el software utilizado fue de código abierto, ajustado para satisfacer las necesidades de los reporteros. La herramienta de búsqueda, que permite a los reporteros buscar nombres como Putin o lugares como las Islas Vírgenes Británicas, se basó en Apache Solr, utilizada por una gran cantidad de organizaciones de búsqueda intensiva, incluida DuckDuckGo, una herramienta enfocada en la privacidad. Solr se combinó con el Tika de Apache, un software de indexación que puede analizar diferentes tipos de archivos, ya sean archivos PDF o correos electrónicos como en los Papeles de Panamá, extrayendo el texto de los datos no esenciales.”

– Thomas Brewster en “From Encrypted Drives To Amazon’s Cloud — The Amazing Flight Of The Panama Papers” 05.04.2016