guía del uso de las tecnologías big data para la ... · cial en la generación de datos ... -...

27
Guía del u Big Data p maquinar de obra p elevadore uso de las tecno para la innovac ria de construcc pública y aparato es ologías ción en ción y os

Upload: buinguyet

Post on 29-Oct-2018

212 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Guía del uso de las tecnologías Big Data para la innovación en maqu inaria de construcción y de obr a pública y aparatos elevadores

del uso de las tecnologías Big Data para la innovación en

inaria de construcción y a pública y aparatos

elevadores

del uso de las tecnologías Big Data para la innovación en

inaria de construcción y a pública y aparatos

Page 2: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

01. RESUMEN EJECUTIVO

02. INTRODUCCIÓN AL BIG

02.1. Algunos conceptos para entender las tecnologías Big Data

02.2. Pasos en un proceso de Big Data

03. INTRODUCCIÓN A LAS T

03.1. Algunas técnicas usadas por las tecnologías Big Data

04. APLICACIONES DE BIG

04.1. Big Data en la construcción: Existe materia prima

04.2. Antes de empezar un proyecto de B

04.3. Sobre BIM y su relación con Big Data

04.4. Optimización de recursos y residuos

04.5. Servicios de valor añadido

04.6. Gestión de instalaciones y maquinaria

04.7. Analítica y gestión energética

04.8. Áreas transversales aplicadas a la maquinaria de construcción y aparatos elevadores

05. CONCLUSIONES ................................

Índice RESUMEN EJECUTIVO ................................................................

INTRODUCCIÓN AL BIG DATA ................................................................

Algunos conceptos para entender las tecnologías Big Data ................................

Pasos en un proceso de Big Data ..............................................................................................

INTRODUCCIÓN A LAS TECNOLOGÍAS DE BIG DATA ................................

Algunas técnicas usadas por las tecnologías Big Data ...............................................................

APLICACIONES DE BIG DATA PARA CONSTRUCCIÓN ................................

Big Data en la construcción: Existe materia prima ................................................................

Antes de empezar un proyecto de Big Data: ¿para qué queremos los datos?

Sobre BIM y su relación con Big Data ................................................................

Optimización de recursos y residuos ................................................................

Servicios de valor añadido................................................................................................

Gestión de instalaciones y maquinaria ................................................................

Analítica y gestión energética ................................................................................................

Áreas transversales aplicadas a la maquinaria de construcción y aparatos elevadores

...........................................................................................

2

Índice .................................................... 3

........................................ 3

...................................................... 5

.............................. 6

........................................ 9

............................... 9

..................................... 15

.................................. 15

ig Data: ¿para qué queremos los datos? ......................... 16

..................................................... 16

...................................................... 18

...................................... 19

................................................... 21

................................ 23

Áreas transversales aplicadas a la maquinaria de construcción y aparatos elevadores .......... 24

........................... 27

Page 3: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

01. Resumen ejecutivo Este informe pretende ser una guía de Big Data al sector de la construcción, maquinaria de construcción y de obra pública y aparatos elevadores. Esta guía ha sido elaborada en el marco del proyecto BICMAQDATA, que ha sido apoyado por el Ministerio de Economía, Industria y Competitividad dentro de la Convocatoria 2017 de apoyo a Agrupaciones Empresariales Innovadoras (nº AEI-010600-2017-166 Más que entrar en profundidad sobre las características técnicas de tecnologías de Big Data, proceso tecnológico de Big Data (tecnologías que se pueden usar en este proceso ( Por tanto, no se trata de un inventario de software maquinaria de construcción ni de una explicación técnica profunda de todo lo que hay bajo el concepto de Big Data, sino de una guía para todo aquel que quiera introducirse en el mundo de Big Data y quiera empezar a aplicarlo en elsector de la [maquinaria de] construcción. El objetivo fundamental del documento es, por tanto, servir de guía e inspiración al potencial adoptador de estas tecnologías en el campo de la construcción, de manera que sepa tanto el proceso de un proyecto dData, cierto conocimiento de las tecnologías implicadas y los campos de aplicación en los que se identificó mayor potencial en el sector. explicará en el epígrafe (con los datos es el disparador para empezar este proceso de adopción.

02. Introducción a “Big Data” es un concepto que hace referencia a conjuntos de datos tan voluminosos que las aplicaciones informáticasgestionar. Esta explosión de datos ha venido propiciadacontinua generación de datos en internet y en dispositivos electrónicos que, conectados o no a la red, son capaces de gdebe ser procesada para su mejor aprovechamiento.

Resumen ejecutivo

pretende ser una guía iniciática para la aplicación de tecnologías de Big Data al sector de la construcción, maquinaria de construcción y de obra pública y aparatos elevadores.

Esta guía ha sido elaborada en el marco del proyecto BICMAQDATA, que ha sido apoyado por el Ministerio de Economía, Industria y Competitividad dentro de la Convocatoria 2017 de apoyo a Agrupaciones Empresariales Innovadoras

166).

ue entrar en profundidad sobre las características técnicas de tecnologías de Big Data, se intenta dar una breve visión de en qué consiste un proceso tecnológico de Big Data (02.2) y algunas de las principales técnicas y tecnologías que se pueden usar en este proceso (03).

Por tanto, no se trata de un inventario de software de Big Data dedicado a la maquinaria de construcción ni de una explicación técnica profunda de todo lo que hay bajo el concepto de Big Data, sino de una guía para todo aquel que quiera introducirse en el mundo de Big Data y quiera empezar a aplicarlo en elsector de la [maquinaria de] construcción.

El objetivo fundamental del documento es, por tanto, servir de guía e inspiración al potencial adoptador de estas tecnologías en el campo de la construcción, de manera que sepa tanto el proceso de un proyecto dData, cierto conocimiento de las tecnologías implicadas y los campos de aplicación en los que se identificó mayor potencial en el sector. explicará en el epígrafe (04.2), la importancia de saber qué queremos hacer con los datos es el disparador para empezar este proceso de adopción.

Introducción al Big Data

“Big Data” es un concepto que hace referencia a conjuntos de datos tan aplicaciones informáticas tradicionales no son capaces de

gestionar. Esta explosión de datos ha venido propiciada, esencialmente, por la continua generación de datos en internet y en dispositivos electrónicos que, conectados o no a la red, son capaces de generar información continua que debe ser procesada para su mejor aprovechamiento.

3

la aplicación de tecnologías de Big Data al sector de la construcción, maquinaria de construcción y de obra

Esta guía ha sido elaborada en el marco del proyecto BICMAQDATA, que ha sido apoyado por el Ministerio de Economía, Industria y Competitividad dentro de la Convocatoria 2017 de apoyo a Agrupaciones Empresariales Innovadoras

ue entrar en profundidad sobre las características técnicas de en qué consiste un

) y algunas de las principales técnicas y

de Big Data dedicado a la maquinaria de construcción ni de una explicación técnica profunda de todo lo que hay bajo el concepto de Big Data, sino de una guía para todo aquel que quiera introducirse en el mundo de Big Data y quiera empezar a aplicarlo en el

El objetivo fundamental del documento es, por tanto, servir de guía e inspiración al potencial adoptador de estas tecnologías en el campo de la construcción, de manera que sepa tanto el proceso de un proyecto de Big Data, cierto conocimiento de las tecnologías implicadas y los campos de aplicación en los que se identificó mayor potencial en el sector. Como se

qué queremos hacer con los datos es el disparador para empezar este proceso de adopción.

“Big Data” es un concepto que hace referencia a conjuntos de datos tan tradicionales no son capaces de

, esencialmente, por la continua generación de datos en internet y en dispositivos electrónicos que,

enerar información continua que

Page 4: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Casi cada día tenemos una nueva noticia de la cantidad de datos que se generan en Internet, comparándolos con lo generado hace algunos años o con lo que se generará en un fucreación de este informe (Febrero 2018) se 48 videos a Youtube o que se comparten más de mepublicaciones en Facebook. dispositivos y seres humanos conectados a Internet generan 2,5 millones de Terabytes de informaciónmás datos que en 2010. Pese a nacer a finales del siglo XX, el término Big Data se ha popularizado mucho más durante los últimos 10 años, cuando realmente se está produciendo un crecimiento exponende conciencia de las posibilidades e implicaciones que esta cantidad de datos significa. Sin embargo y, en general, el conceptono sólo) a los datos en sí mismos sino a las <relativamente> nuevas tecnologías de la información de datos para su aprovechamiento y explotación. En esta linea, la propia caracterización de los datos que forman parte de este concepto ha marcado la necesidad del desarrollo de tecnologías capaces de gestionarlos. Existe un cierto consenso en que lo que caracteriza a los “datos del Big Data” es las llamadas ‘

- Volumen : La propia cantidad de datos generados es considerada una característica del Big Data, dado que marca las tecnologías necesarias para su almacenamiento y posterior análisis

- Variedad: La variedad se refiere a las múltiples fuentes y tipos de datos, tanto estructurados como no estructurados

- Velocidad : Se refiere a la rapidez con la que los datos se generan y/o entran y salen de los sistemas que los analizan.

- Veracidad : Los datos deben ser sesgos, ruido o alteración en los mismos que las conclusiones que podamos sacar.

- Valor : Los datos tienen que servir para obtener relevante a partir de ellos. Es decir, deberán

Casi cada día tenemos una nueva noticia de la cantidad de datos que se generan en Internet, comparándolos con lo generado hace algunos años o con lo que se generará en un futuro cercano. Por poner un ejemplo, a fecha de creación de este informe (Febrero 2018) se estima que cada minuto se suben 48 videos a Youtube o que se comparten más de medio millón de

acebook. Cada 24 horas, los miles de millones de sitivos y seres humanos conectados a Internet generan 2,5 millones de

Terabytes de información. Se considera que en 2020 produciremos 44 veces

Pese a nacer a finales del siglo XX, el término Big Data se ha popularizado ante los últimos 10 años, cuando realmente se está

ento exponencial en la generación de datosde conciencia de las posibilidades e implicaciones que esta cantidad de datos

Sin embargo y, en general, el concepto de Big Data suele asociarse no tantoa los datos en sí mismos sino a las <relativamente> nuevas

tecnologías de la información (TIC) que hacen uso de esas grandes cantidades de datos para su aprovechamiento y explotación.

opia caracterización de los datos que forman parte de este concepto ha marcado la necesidad del desarrollo de tecnologías capaces de gestionarlos. Existe un cierto consenso en que lo que caracteriza a los “datos

el Big Data” es las llamadas ‘Vs’:

La propia cantidad de datos generados es considerada una característica del Big Data, dado que marca las tecnologías necesarias para su almacenamiento y posterior análisis

La variedad se refiere a las múltiples fuentes y tipos de datos, estructurados como no estructurados

Se refiere a la rapidez con la que los datos se generan y/o entran y salen de los sistemas que los analizan.

Los datos deben ser veraces y confiables, sin introducir sesgos, ruido o alteración en los mismos que distorsione la realidad de las conclusiones que podamos sacar.

: Los datos tienen que servir para obtener una información relevante a partir de ellos. Es decir, deberán ser tratados y/o analizados.

4

Casi cada día tenemos una nueva noticia de la cantidad de datos que se generan en Internet, comparándolos con lo generado hace algunos años o con

turo cercano. Por poner un ejemplo, a fecha de estima que cada minuto se suben

dio millón de Cada 24 horas, los miles de millones de

sitivos y seres humanos conectados a Internet generan 2,5 millones de . Se considera que en 2020 produciremos 44 veces

Pese a nacer a finales del siglo XX, el término Big Data se ha popularizado ante los últimos 10 años, cuando realmente se está

datos y una toma de conciencia de las posibilidades e implicaciones que esta cantidad de datos

de Big Data suele asociarse no tanto (o a los datos en sí mismos sino a las <relativamente> nuevas

que hacen uso de esas grandes cantidades

opia caracterización de los datos que forman parte de este concepto ha marcado la necesidad del desarrollo de tecnologías capaces de gestionarlos. Existe un cierto consenso en que lo que caracteriza a los “datos

La propia cantidad de datos generados es considerada una característica del Big Data, dado que marca las tecnologías necesarias

La variedad se refiere a las múltiples fuentes y tipos de datos,

Se refiere a la rapidez con la que los datos se generan y/o

veraces y confiables, sin introducir distorsione la realidad de

una información ser tratados y/o analizados.

Page 5: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Inicialmente, se introdujo el concepto de las 3 Vsvariedad) para caracterizar al Big Data, para posteriormente añadir una cuarta(valor, veracidad) 2 Así, las características anteriores imponen unas ntrascienden las tecnologías de información tradicionales. Antes de comenzar por las tecnologías propias del Big Data, se detallan algunos conceptos importantes para nos impone el Big Data.

02.1. Algunos conceptos Data

- Datos estructurados vs. Datos no estructurados De una manera muy sencilla, los datos estructurados pueden definirse como aquellos que se almacenan en una base de datos clásica. ordenados en estructuras de filas y columnas y se pueden realizar búsquedas y consultas para obtener aquellos ejemplares que cumplen unas determinadas características (atributos de cada dato).legibles y entendibles por un humano cuando los texto. Por el contrario, los datos no estructurados son, generalmente, formato binario o no pensado para ser leído/entendido por un humanoAdicionalmente al formato, los estos datos no tienen una estructura interna identificable. Es un conglomerado masivo, heterogéneo y desorganizado de objetos que no se pueden almacenar en una base de datos clásica (relacional), y que no tienen valor hasta que no se organizan de manera que se pueda identificar la información que contienen.

- Bases de datos relacionales vs. NoSQL Las bases de datos relacionales la descrita anteriormente. La estructura en tablas con filas y columnas de este tipo de bases de datos permite tener un ‘mapa’ y una ordenación de la

1 Doug Laney, 3d Data managment: controlling data volume, velocity and variety, Appl. Delivery Strategies Meta Group (949) (2001). 2 Paul Zikopoulos, Chris Eaton, Paul. ZikopoulosStreaming Data, McGraw Hill Professional, 2011.

Inicialmente, se introdujo el concepto de las 3 Vs 1 (volumen, velocidad y caracterizar al Big Data, para posteriormente añadir una cuarta

las características anteriores imponen unas necesidades tecnológicas que trascienden las tecnologías de información tradicionales.

Antes de comenzar por las tecnologías propias del Big Data, se detallan algunos conceptos importantes para comprender este cambio tecnológico que

Algunos conceptos para entender las tecnologías Big

Datos estructurados vs. Datos no estructurados :

De una manera muy sencilla, los datos estructurados pueden definirse como aquellos que se almacenan en una base de datos clásica. ordenados en estructuras de filas y columnas y se pueden realizar búsquedas y consultas para obtener aquellos ejemplares que cumplen unas determinadas características (atributos de cada dato). Son fácilmente legibles y entendibles por un humano cuando los mostramos en formato

Por el contrario, los datos no estructurados son, generalmente, formato binario o no pensado para ser leído/entendido por un humanoAdicionalmente al formato, los estos datos no tienen una estructura interna

cable. Es un conglomerado masivo, heterogéneo y desorganizado de objetos que no se pueden almacenar en una base de datos clásica

, y que no tienen valor hasta que no se organizan de manera que se pueda identificar la información que contienen.

Bases de datos relacionales vs. NoSQL

Las bases de datos relacionales almacenan información estructurada como la descrita anteriormente. La estructura en tablas con filas y columnas de este tipo de bases de datos permite tener un ‘mapa’ y una ordenación de la

Doug Laney, 3d Data managment: controlling data volume, velocity and variety, Appl. Delivery Strategies Meta Group

Paul Zikopoulos, Chris Eaton, Paul. Zikopoulos, Understanding Big Data: Analytics for Enterprise Class Hadoop Professional, 2011.

5

(volumen, velocidad y caracterizar al Big Data, para posteriormente añadir una cuarta

ecesidades tecnológicas que

Antes de comenzar por las tecnologías propias del Big Data, se detallan comprender este cambio tecnológico que

para entender las tecnologías Big

De una manera muy sencilla, los datos estructurados pueden definirse como aquellos que se almacenan en una base de datos clásica. Pueden ser ordenados en estructuras de filas y columnas y se pueden realizar búsquedas y consultas para obtener aquellos ejemplares que cumplen unas

Son fácilmente mostramos en formato

Por el contrario, los datos no estructurados son, generalmente, datos en formato binario o no pensado para ser leído/entendido por un humano. Adicionalmente al formato, los estos datos no tienen una estructura interna

cable. Es un conglomerado masivo, heterogéneo y desorganizado de objetos que no se pueden almacenar en una base de datos clásica

, y que no tienen valor hasta que no se organizan de manera que

almacenan información estructurada como la descrita anteriormente. La estructura en tablas con filas y columnas de este tipo de bases de datos permite tener un ‘mapa’ y una ordenación de la

Doug Laney, 3d Data managment: controlling data volume, velocity and variety, Appl. Delivery Strategies Meta Group

, Understanding Big Data: Analytics for Enterprise Class Hadoop and

Page 6: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

información para ser consultada de manera clásica (como hace cualqaplicación de formulario accediendo a una base de datos) Las estructuras multidimensionales (OLAP similares) trabajan igualmente sobre este tipo de bases de datos, y son simplemente una estructura optimizada de cara información, de manera que se obtiene un tiempo de respuesta mucho mejor para consultas que, de realizarse directamente sobre la base de datos relacional, relentizarían mucho su respuesta. Este tipo de estruturas de datos son las que utiliIntelligence’ surgidas a principio del siglo XXIorientadas a la consulta y puesta en valor de información de bases de datos relacionales. Las tecnologías tipo NoSQLalmacenar datos que trascienden las capacidades de las bases de datos relacionales. Se han agrupado bajo esa denominación dado que no suelen usar el lenguaje SQL para realizar consultas. Esto es así porque este tipo de tecnologías contienen típica SQL no suele ser adecuadaasimilarse a “No sólo SQL”, dado que en ocasiones estas tecnologías admiten consultas SQL, pese a no estar pensadas u optimizadas para ello) Las tecnologías más relevantes que suelen agruparse bajo el paraguas de NoSQL suelen ser estructuras de datos tipo clavede datos orientadas a grafos (BDOG), bases de datos documentales, etc. Este tipo de bases de datos suelen tener una arquitectura distribuida, de manera que tienen sostenible en su capacida

02.2. Pasos en un proceso de Big Data

En todos los procesos/proyectos de Big Data, el objetivo final siempre es generar conocimiento nuevo a partir de datos existentes. Muchas veces, esta generación de conocimiento suele utilizarse paradecisiones, pero en otras ocasiones puede general de generación de conocimiento Para ello, se suelen aboradar una serie de pasos que facilitan y, en cierta medida, formalizan las tareas a hacer con los Data. Los datos de este proceso se pueden ver en el siguiente esquema:

para ser consultada de manera clásica (como hace cualqaplicación de formulario accediendo a una base de datos).

Las estructuras multidimensionales (OLAP –Online analytical processingsimilares) trabajan igualmente sobre este tipo de bases de datos, y son simplemente una estructura optimizada de cara a la consulta de información, de manera que se obtiene un tiempo de respuesta mucho mejor para consultas que, de realizarse directamente sobre la base de datos relacional, relentizarían mucho su respuesta. Este tipo de estruturas de datos son las que utilizaban las aplicaciones iniciales de ‘Business Intelligence’ surgidas a principio del siglo XXI, aplicaciones y tecnología orientadas a la consulta y puesta en valor de información de bases de datos

tipo NoSQL abarcan un amplio espectro de soluciones para almacenar datos que trascienden las capacidades de las bases de datos relacionales. Se han agrupado bajo esa denominación dado que no suelen

aje SQL para realizar consultas. Esto es así porque este tipo logías contienen datos no estructurados, por lo que una consulta

suele ser adecuada para obtener información (NoSQL puede “No sólo SQL”, dado que en ocasiones estas tecnologías

admiten consultas SQL, pese a no estar pensadas u optimizadas para ello)

Las tecnologías más relevantes que suelen agruparse bajo el paraguas de NoSQL suelen ser estructuras de datos tipo clave-valor, multivalor, bases de datos orientadas a grafos (BDOG), bases de datos documentales, etc. Este tipo de bases de datos suelen tener una arquitectura distribuida, de

una escalabilidad adecuada para un crecimiento sostenible en su capacidad de almacenamiento.

Pasos en un proceso de Big Data

En todos los procesos/proyectos de Big Data, el objetivo final siempre es generar conocimiento nuevo a partir de datos existentes. Muchas veces, esta generación de conocimiento suele utilizarse para ayudar a la toma de decisiones, pero en otras ocasiones puede haber simplemente

de generación de conocimiento.

se suelen aboradar una serie de pasos que facilitan y, en cierta medida, formalizan las tareas a hacer con los datos en un proceso de Big

Los datos de este proceso se pueden ver en el siguiente esquema:

6

para ser consultada de manera clásica (como hace cualquier

Online analytical processing- y similares) trabajan igualmente sobre este tipo de bases de datos, y son

a la consulta de información, de manera que se obtiene un tiempo de respuesta mucho mejor para consultas que, de realizarse directamente sobre la base de datos relacional, relentizarían mucho su respuesta. Este tipo de estruturas

zaban las aplicaciones iniciales de ‘Business , aplicaciones y tecnología

orientadas a la consulta y puesta en valor de información de bases de datos

lio espectro de soluciones para almacenar datos que trascienden las capacidades de las bases de datos relacionales. Se han agrupado bajo esa denominación dado que no suelen

aje SQL para realizar consultas. Esto es así porque este tipo , por lo que una consulta

(NoSQL puede “No sólo SQL”, dado que en ocasiones estas tecnologías

admiten consultas SQL, pese a no estar pensadas u optimizadas para ello).

Las tecnologías más relevantes que suelen agruparse bajo el paraguas de , multivalor, bases

de datos orientadas a grafos (BDOG), bases de datos documentales, etc. Este tipo de bases de datos suelen tener una arquitectura distribuida, de

una escalabilidad adecuada para un crecimiento

En todos los procesos/proyectos de Big Data, el objetivo final siempre es generar conocimiento nuevo a partir de datos existentes. Muchas veces,

ayudar a la toma de simplemente un objetivo

se suelen aboradar una serie de pasos que facilitan y, en cierta en un proceso de Big

Los datos de este proceso se pueden ver en el siguiente esquema:

Page 7: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Ilustración

La primera fase, la captura y almacenamiento de los datosinicio del proceso de crear conocimiento a partir de los datos. Como se mencionó al inicio del capítulo, la cantidad de datos generados candidatos a ser capturados por el proceso de Big Data es enorme y se incrementa cada día en cada una de las fuentes de información elegidas.datos son incluso descartados engestionarlos o las limitaciones de almacenamiento. Una vez identificadas las fuentes de las que capturaremos los datos (proceso este muchas veces estratégico y, en cualquier caso, alejado e independiente de la tecnología), tanto la cantidad de datos a capturar, como las necesidades de velocidad de las fuentes y su procesamiento (la Vs mencionadas anteriormente) marcan nuevas arquitecturas y tecnologías ya desde este primer paso. Además de una gran capacidad de almacenamialmacenen los datos deben proporcionar un rápido acceso a los mismos, con tecnologías tipo SSD (Solidembargo, estos sistemas no son suficientes ni se adaptan por completo a las necesidades de rendimiento del Big Data. La distribución en cluster y las

Ilustración 1 - Pasos de un proceso Big Data

captura y almacenamiento de los datos, es la que marca el inicio del proceso de crear conocimiento a partir de los datos. Como se

al inicio del capítulo, la cantidad de datos generados candidatos a ser capturados por el proceso de Big Data es enorme y se incrementa cada día en cada una de las fuentes de información elegidas. Por ello, muchos de estos datos son incluso descartados en sus fuentes por la incapacidad de gestionarlos o las limitaciones de almacenamiento.

Una vez identificadas las fuentes de las que capturaremos los datos (proceso este muchas veces estratégico y, en cualquier caso, alejado e independiente

), tanto la cantidad de datos a capturar, como las necesidades de velocidad de las fuentes y su procesamiento (la Vs mencionadas anteriormente) marcan nuevas arquitecturas y tecnologías ya desde este

Además de una gran capacidad de almacenamiento, los sistemas que almacenen los datos deben proporcionar un rápido acceso a los mismos, con tecnologías tipo SSD (Solid-State Drive) o PCM (phase-change memory)embargo, estos sistemas no son suficientes ni se adaptan por completo a las

es de rendimiento del Big Data. La distribución en cluster y las

7

es la que marca el inicio del proceso de crear conocimiento a partir de los datos. Como se

al inicio del capítulo, la cantidad de datos generados candidatos a ser capturados por el proceso de Big Data es enorme y se incrementa cada día

muchos de estos sus fuentes por la incapacidad de

Una vez identificadas las fuentes de las que capturaremos los datos (proceso este muchas veces estratégico y, en cualquier caso, alejado e independiente

), tanto la cantidad de datos a capturar, como las necesidades de velocidad de las fuentes y su procesamiento (la Vs mencionadas anteriormente) marcan nuevas arquitecturas y tecnologías ya desde este

ento, los sistemas que almacenen los datos deben proporcionar un rápido acceso a los mismos, con

change memory). Sin embargo, estos sistemas no son suficientes ni se adaptan por completo a las

es de rendimiento del Big Data. La distribución en cluster y las

Page 8: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

granjas de servidores son arquitecturas típicas que permiten un balanceo adecuado de las capacidades de almacenamiento, paralelización, respaldo y acceso a los datos. Tras el almacenamiento,representación e integración de los datosbajo el término “data curation” en el sentido drecuperación de datos, el aseguramiento de la calidad de los datos, de valor, la reutilización y la conservaciónEsta fase hereda ciertas similitudes con las típicas tareas de ETL (Extract, Transform and Load) de los proyectos de Business Intelligence. Los dos pasos anteriores se realizan bajo estructuras con el paradigma NoSQL comentado anteriormente. Estos modelos tienen una seria de características que los hacen diferentes a los sistemas gestores de bases relacionales clásicos. El primero es que el almacenamiento y la gesseparados en dos partes diferentes (al contrario que en las bases de datos relacionales, que los tratan de manera simultaneaalmacenamiento (denominado muchas veces escalabilidad para almacenar información optimizando el rendimiento (tanto de lectura como de escritura).NoSQL proporciona un mpueden implementar tareas de administración de daaplicación, en lugar de tener la lógica de administración de datosprocedimientos almacenadosson más flexibles para almacenar y gestionar cualques así porque no tienen un esquema de datos. Es decir, cualquier estructura de datos sin tener que modificar las ‘tablas’puesto que no existe (lo que permite una almacenaje de datos heterogéneos de manera óptima). Una vez los datos han sido procesos de ‘data curation’correspondientes sobre los datos, como paso inevitable para la generación de conocimiento. Para las tareas de análsis, un requpuedan escalar, debido al incremento exponencial de la cantidad de información (Volumen), mucho más rápido que la mejora de la capacidad de los procesadores (ley de Mooredemostrado ser adecuados para este requisito de escalabilidad, aunque la solución más adoptada actualmente es la paralelización de los cálculos en diferentes máquinas y procesadores en la nube, de manera que sean capaces 3 https://es.wikipedia.org/wiki/Ley_de_Moore4 https://en.wikipedia.org/wiki/Incremental_learning

granjas de servidores son arquitecturas típicas que permiten un balanceo adecuado de las capacidades de almacenamiento, paralelización, respaldo y

Tras el almacenamiento, es necesario realizar trabajos de e integración de los datos (muchas veces también agrupado

bajo el término “data curation” en el sentido del descubrimiento y la recuperación de datos, el aseguramiento de la calidad de los datos, de valor, la reutilización y la conservación de los mismos a lo largo del tiempo).Esta fase hereda ciertas similitudes con las típicas tareas de ETL (Extract, Transform and Load) de los proyectos de Business Intelligence.

res se realizan bajo estructuras con el paradigma NoSQL comentado anteriormente. Estos modelos tienen una seria de características que los hacen diferentes a los sistemas gestores de bases relacionales clásicos. El primero es que el almacenamiento y la gestión de los datos están separados en dos partes diferentes (al contrario que en las bases de datos

los tratan de manera simultanea). Esto permite que el almacenamiento (denominado muchas veces ‘clave-valor’) se centre en la

para almacenar información optimizando el rendimiento (tanto de lectura como de escritura). En la parte de gestión de los datos, el modelo NoSQL proporciona un mecanismo de acceso de bajo nivel en el que se pueden implementar tareas de administración de datos en la capa de

en lugar de tener la lógica de administración de datosprocedimientos almacenados. De este modo, los sistemas basados en NoSQL

ra almacenar y gestionar cualquier modelo de datosporque no tienen un esquema de datos. Es decir, pueden almacenar

cualquier estructura de datos sin tener que modificar las ‘tablas’ puesto que no existe (lo que permite una almacenaje de datos heterogéneos

os han sido capturados, almacenados y, en su caso, realizados procesos de ‘data curation’, es el momento de realizar los correspondientes sobre los datos, como paso inevitable para la generación de

Para las tareas de análsis, un requisito imprescindible es que puedan escalar, debido al incremento exponencial de la cantidad de información (Volumen), mucho más rápido que la mejora de la capacidad de los procesadores (ley de Moore3). Los denominados “incremental algorithmsdemostrado ser adecuados para este requisito de escalabilidad, aunque la solución más adoptada actualmente es la paralelización de los cálculos en diferentes máquinas y procesadores en la nube, de manera que sean capaces

https://es.wikipedia.org/wiki/Ley_de_Moore https://en.wikipedia.org/wiki/Incremental_learning

8

granjas de servidores son arquitecturas típicas que permiten un balanceo adecuado de las capacidades de almacenamiento, paralelización, respaldo y

es necesario realizar trabajos de limpieza, (muchas veces también agrupado

el descubrimiento y la recuperación de datos, el aseguramiento de la calidad de los datos, la adición

de los mismos a lo largo del tiempo). Esta fase hereda ciertas similitudes con las típicas tareas de ETL (Extract,

res se realizan bajo estructuras con el paradigma NoSQL comentado anteriormente. Estos modelos tienen una seria de características que los hacen diferentes a los sistemas gestores de bases relacionales

tión de los datos están separados en dos partes diferentes (al contrario que en las bases de datos

Esto permite que el se centre en la

para almacenar información optimizando el rendimiento (tanto de En la parte de gestión de los datos, el modelo

ecanismo de acceso de bajo nivel en el que se en la capa de

en lugar de tener la lógica de administración de datos distribuida en . De este modo, los sistemas basados en NoSQL

r modelo de datos. Esto pueden almacenar

o el esquema, puesto que no existe (lo que permite una almacenaje de datos heterogéneos

capturados, almacenados y, en su caso, realizados es el momento de realizar los análisis

correspondientes sobre los datos, como paso inevitable para la generación de isito imprescindible es que

puedan escalar, debido al incremento exponencial de la cantidad de información (Volumen), mucho más rápido que la mejora de la capacidad de los

Los denominados “incremental algorithms4” han demostrado ser adecuados para este requisito de escalabilidad, aunque la solución más adoptada actualmente es la paralelización de los cálculos en diferentes máquinas y procesadores en la nube, de manera que sean capaces

Page 9: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

de absorber el volumen de datse penalice el rendimiento.los relativos a HPC (High Performance Computig) se traten cada vez más frecuentemente de manera conjunta. La visualización de los anBig Data, dado que es finalemente el interfaz con el usuario de la información lo que determina el conocimiento transmitido.efectiva el conocimiento oculto en los enormesque maneja el Big Data, como los funcionales. herramientas (Qlik, Tableau, etc.) que facilitan la visualización afectiva de repositorios de Big Data, completando así el proceso desarrollado en este punto.

03. Introducción a las t Para capturar el valor de Big Data, necesitamos desarrollar nuevas técnicas y tecnologías para analizarahora, científicos y tecnólogos técnicas y tecnologías para capturar, seleccionar, analizar y visualizar Big Data. A pesar de ello, todavía queda mucho por hacer y siguen apareciendo nuevas herramientas (y algoritmos) que facilitan abordar ciertos problemas de manera más adecuada y que, por otro lado, abren muchas veces el espectro de opciones disponibles para afrontar un proyecto de Big Datatecnologías cruzan una serie de disciplinamatemáticas, estadística y otras especializaciones. Se necesitan métodos multidisciplinares para descubrircolaboración entre el conocimiento funcional, el tecnológico y el matemático/estadístico (el llamado ‘científico de datos’) es clave para el éxito de este tipo de proyectos Vamos a ver inicialmente algunas de las técnicas usadas por las tecnologías de Big Data para obtener la información existente en los datos y generar nueconocimiento:

03.1. Algunas técnicas usadas por las tecnologías Big Dat a Las técnicas usadas en Big Data involucran una serie de disciplinas que incluyen estadística, extracción de datos, aprendizaje automático, redes neuronales, análisis de redes sociales, procesamiento de señales,

de absorber el volumen de datos y su progresivo incremento de manera que no se penalice el rendimiento. Esta necesidad hace que los temas de Big Data y

HPC (High Performance Computig) se traten cada vez más frecuentemente de manera conjunta.

de los análisis realizado es clave para dotar de la V de Valor al Big Data, dado que es finalemente el interfaz con el usuario de la información lo que determina el conocimiento transmitido. Y para transmitir de manera efectiva el conocimiento oculto en los enormes conjuntos de datos (datasets) que maneja el Big Data, se deben contemplar tanto los aspectos estéticos

En este sentido, han aparecido cierto grupo de herramientas (Qlik, Tableau, etc.) que facilitan la visualización afectiva de

itorios de Big Data, completando así el proceso desarrollado en este

Introducción a las tecnologías de

Para capturar el valor de Big Data, necesitamos desarrollar nuevas técnicas y tecnologías para analizar los data sets capturados y almacenados. Hasta

y tecnólogos han desarrollado una amplia variedad de técnicas y tecnologías para capturar, seleccionar, analizar y visualizar Big Data.

todavía queda mucho por hacer y siguen apareciendo nuevas as (y algoritmos) que facilitan abordar ciertos problemas de manera

más adecuada y que, por otro lado, abren muchas veces el espectro de opciones disponibles para afrontar un proyecto de Big Data. Estas técnicas y tecnologías cruzan una serie de disciplinas, incluidas informática, economía, matemáticas, estadística y otras especializaciones. Se necesitan métodos

s para descubrir la valiosa información de Big Datacolaboración entre el conocimiento funcional, el tecnológico y el

tico/estadístico (el llamado ‘científico de datos’) es clave para el éxito de este tipo de proyectos.

ver inicialmente algunas de las técnicas usadas por las tecnologías de Big Data para obtener la información existente en los datos y generar nue

Algunas técnicas usadas por las tecnologías Big Dat a

Las técnicas usadas en Big Data involucran una serie de disciplinas que incluyen estadística, extracción de datos, aprendizaje automático, redes neuronales, análisis de redes sociales, procesamiento de señales,

9

os y su progresivo incremento de manera que no Esta necesidad hace que los temas de Big Data y

HPC (High Performance Computig) se traten cada vez más

álisis realizado es clave para dotar de la V de Valor al Big Data, dado que es finalemente el interfaz con el usuario de la información

Y para transmitir de manera conjuntos de datos (datasets)

se deben contemplar tanto los aspectos estéticos En este sentido, han aparecido cierto grupo de

herramientas (Qlik, Tableau, etc.) que facilitan la visualización afectiva de itorios de Big Data, completando así el proceso desarrollado en este

Big Data

Para capturar el valor de Big Data, necesitamos desarrollar nuevas técnicas y acenados. Hasta

han desarrollado una amplia variedad de técnicas y tecnologías para capturar, seleccionar, analizar y visualizar Big Data.

todavía queda mucho por hacer y siguen apareciendo nuevas as (y algoritmos) que facilitan abordar ciertos problemas de manera

más adecuada y que, por otro lado, abren muchas veces el espectro de . Estas técnicas y

informática, economía, matemáticas, estadística y otras especializaciones. Se necesitan métodos

la valiosa información de Big Data, y la colaboración entre el conocimiento funcional, el tecnológico y el

tico/estadístico (el llamado ‘científico de datos’) es clave para el éxito

ver inicialmente algunas de las técnicas usadas por las tecnologías de Big Data para obtener la información existente en los datos y generar nuevo

Algunas técnicas usadas por las tecnologías Big Dat a

Las técnicas usadas en Big Data involucran una serie de disciplinas que incluyen estadística, extracción de datos, aprendizaje automático, redes neuronales, análisis de redes sociales, procesamiento de señales,

Page 10: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

reconocimiento de patrones, métodos de optimivisualización, entre otras.

Métodos de optimización Este tipo de métodos soncuantitativos en multitud de campos (física, biología, ingeniería, eetc.). Por otro lado, existen multitud de estrategias de computación para resolver este tipo de genéticos, programación evolutiva, optimización por enjambre de partículasEstas estrategias consumen computación, por lo que suelen adoptarse soluciones de tipo software (como algoritmos cooperativosreduction’7.

Estadística Los métodos estadísticos comparten con Data los objetivos de recolectar, analizar e interpretar datos, aunque difieran en el cómo. Pese a que muchos métodos estadísticos (y la esencia de esta rama matemática) no están prepobjetivos del Big Data, sí que hay otros campos en los que los 2 campos convergen. Este es el caso de la búsqueda de correlaciones y de una relación causal entre datos (variables dependientes e independienmoderadoras y de control).métodos estadísticos al Big Data, mediante la paralelización de la algoritmiamediante la extensión de los métodos existente o el desarrollo de otros más adaptados a las características del Big Data.

5 Zhenyu Yang, Ke Tang, Xin Yao, Large sca(15) (2008) 2985 2999. 6 Yi Cao, Dengfeng Sun, A parallel computing framework for largeTrans. Syst. 13 (4) (2012) 1855 1864.7 Jun Yan, Ning Liu, Shuicheng Yan, Qiang Yang, Weiguo Fan, Wei Wei, Zheng Chen, Tracefor large-scale text data dimension reduction, IEEE Trans. Knowl. Data Eng. 23 (7) (2011) 11038 Philippe Pebay, David Thompson, Janine statistics toolkit, in: 2011 IEEE International Symposium on Parallel and Distributed Processing Workshops and Phd Forum (IPDPSW), 2011, pp. 1475 1484.9 Agostino Di Ciaccio, Mauro Coli, Angulo Ibanez, Jose Miguel, Advanced Statistical Methods for the Analysis of Large Data-Sets, Springer, 2012.

reconocimiento de patrones, métodos de optimización y diferentes enfoques de visualización, entre otras. Veamos algunas de ellas:

Este tipo de métodos son muchas veces los utilizados para resolver problemas cuantitativos en multitud de campos (física, biología, ingeniería, e

xisten multitud de estrategias de computación para resolver este tipo de problemas, incluyendo programación y algoritmos

programación evolutiva, optimización por enjambre de partículasEstas estrategias consumen en muchos casos un alto nivel de recursos de

, por lo que suelen adoptarse soluciones de tipo software (como algoritmos cooperativos 5 ) hardware (paralelización 6 ) u otras tipo ‘data

Los métodos estadísticos comparten con otras tecnologías/técnicas deData los objetivos de recolectar, analizar e interpretar datos, aunque difieran en el cómo. Pese a que muchos métodos estadísticos (y la esencia de esta rama matemática) no están preparados para tratar con le heteregenoidad y ciertos objetivos del Big Data, sí que hay otros campos en los que los 2 campos convergen. Este es el caso de la búsqueda de correlaciones y de una relación causal entre datos (variables dependientes e independientes, además de otras moderadoras y de control). Por ello, se intenta optimizar la aplicación de estos métodos estadísticos al Big Data, mediante la paralelización de la algoritmiamediante la extensión de los métodos existente o el desarrollo de otros más adaptados a las características del Big Data.

Zhenyu Yang, Ke Tang, Xin Yao, Large scale evolutionary optimization using cooperative coevolution, Inf. Sci. 178

Yi Cao, Dengfeng Sun, A parallel computing framework for large-scale air traffic flow optimization, IEEE Trans. Intell. 1864.

Jun Yan, Ning Liu, Shuicheng Yan, Qiang Yang, Weiguo Fan, Wei Wei, Zheng Chen, Trace-oriented feature analysis reduction, IEEE Trans. Knowl. Data Eng. 23 (7) (2011) 1103 1117.

Philippe Pebay, David Thompson, Janine Bennett, Ajith Mascarenhas, Design and performance of a scalable, parallel International Symposium on Parallel and Distributed Processing Workshops and Phd

1484. Coli, Angulo Ibanez, Jose Miguel, Advanced Statistical Methods for the Analysis of Large

10

zación y diferentes enfoques de

para resolver problemas cuantitativos en multitud de campos (física, biología, ingeniería, economía,

xisten multitud de estrategias de computación para problemas, incluyendo programación y algoritmos

programación evolutiva, optimización por enjambre de partículas. en muchos casos un alto nivel de recursos de

, por lo que suelen adoptarse soluciones de tipo software (como ) u otras tipo ‘data

otras tecnologías/técnicas de Big Data los objetivos de recolectar, analizar e interpretar datos, aunque difieran en el cómo. Pese a que muchos métodos estadísticos (y la esencia de esta rama

arados para tratar con le heteregenoidad y ciertos objetivos del Big Data, sí que hay otros campos en los que los 2 campos convergen. Este es el caso de la búsqueda de correlaciones y de una relación

tes, además de otras Por ello, se intenta optimizar la aplicación de estos

métodos estadísticos al Big Data, mediante la paralelización de la algoritmia8, o mediante la extensión de los métodos existente o el desarrollo de otros nuevos9

le evolutionary optimization using cooperative coevolution, Inf. Sci. 178

scale air traffic flow optimization, IEEE Trans. Intell.

oriented feature analysis 1117.

Bennett, Ajith Mascarenhas, Design and performance of a scalable, parallel International Symposium on Parallel and Distributed Processing Workshops and Phd

Coli, Angulo Ibanez, Jose Miguel, Advanced Statistical Methods for the Analysis of Large

Page 11: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Data Mining La minería de datos es un conjunto de técnicas para extraer información valiosa (patrones) de los datos, entre las cuales se encuentran el análisis de agrupamientos (clustering analyel análisis de la asociación y la regresión de datos. Estas técnicas implican muchas veces el uso de la estadística y del estas técnicas también se ha tenido que adaptar a Data, ya que aquellas existen con anterioridad al surgimiento de enormes conjuntos de datos. Por eso, al igual que con la estadística, se trata de extender y/o adaptar estas técnicas al nuevo escenarioheteregenoidad de datos (además del resto de Vs del Big Data). Así, al igual que en el caso de la estadística, los algoritmos usados en Dara Mining son adaptados y desarrollados adicionalmente (tanto en la propia lógica del algoritmo como en su adaptación para ser paraldistribuida).

Machine Learning Es un subconjunto de la Inteligencia Artificial que tiene como objetivo el diseño de algoritmos que permitan a los ordenadores desarrollar comportamientos basados en datos empíricos. La caracterlearning es el descubrimiento de conocimiento y la toma de decisiones inteligentes de manera automática. Dentro del término machine learningalgoritmos que permiten el de una serie de reglas que, aplicadas a los datos fuente cuando corresponda, permiten al algoritmo adaptarlas y crear otras nuevas para poder clasificar mejor los datos origen (según el objetivo establecidalgoritmo aprende (datos de entrenamiento) vienen ‘etiquetados’ (es decir, con la solución dada) por el usuario (de ahí que este primer conjunto de métodos se llame aprendizaje supervisadoAsí, el modelo se va mejorando conforme el algoritmo aprende a clasificar correctamente con los datos de entrada

La minería de datos es un conjunto de técnicas para extraer información valiosa (patrones) de los datos, entre las cuales se encuentran el análisis de agrupamientos (clustering analysis), clasificación o reglas de aprendizaje para el análisis de la asociación y la regresión de datos. Estas técnicas implican muchas veces el uso de la estadística y del machine learning. La aplicación deestas técnicas también se ha tenido que adaptar a las características de Big Data, ya que aquellas existen con anterioridad al surgimiento de enormes conjuntos de datos. Por eso, al igual que con la estadística, se trata de extender y/o adaptar estas técnicas al nuevo escenario de volumen y

de datos (además del resto de Vs del Big Data). Así, al igual que en el caso de la estadística, los algoritmos usados en Dara Mining son

desarrollados adicionalmente (tanto en la propia lógica del algoritmo como en su adaptación para ser paralelizado y ejecutado de forma

Es un subconjunto de la Inteligencia Artificial que tiene como objetivo el diseño de algoritmos que permitan a los ordenadores desarrollar comportamientos basados en datos empíricos. La característica más importante del

es el descubrimiento de conocimiento y la toma de decisiones inteligentes de manera automática.

machine learning, existe un conjunto de métodos, técnicas y algoritmos que permiten el aprendizaje automático mediante el establecimiento de una serie de reglas que, aplicadas a los datos fuente cuando corresponda, permiten al algoritmo adaptarlas y crear otras nuevas para poder clasificar mejor los datos origen (según el objetivo establecido). Los datos con los que el algoritmo aprende (datos de entrenamiento) vienen ‘etiquetados’ (es decir, con

por el usuario (de ahí que este primer conjunto de métodos aprendizaje supervisado), de manera que el algoritmo crea su m

Así, el modelo se va mejorando conforme el algoritmo aprende a clasificar correctamente con los datos de entrada:

11

La minería de datos es un conjunto de técnicas para extraer información valiosa (patrones) de los datos, entre las cuales se encuentran el análisis de

sis), clasificación o reglas de aprendizaje para el análisis de la asociación y la regresión de datos. Estas técnicas implican

. La aplicación de las características de Big

Data, ya que aquellas existen con anterioridad al surgimiento de enormes conjuntos de datos. Por eso, al igual que con la estadística, se trata de

de volumen y de datos (además del resto de Vs del Big Data). Así, al igual

que en el caso de la estadística, los algoritmos usados en Dara Mining son desarrollados adicionalmente (tanto en la propia lógica del

elizado y ejecutado de forma

Es un subconjunto de la Inteligencia Artificial que tiene como objetivo el diseño de algoritmos que permitan a los ordenadores desarrollar comportamientos

ística más importante del machine es el descubrimiento de conocimiento y la toma de decisiones

, existe un conjunto de métodos, técnicas y aprendizaje automático mediante el establecimiento

de una serie de reglas que, aplicadas a los datos fuente cuando corresponda, permiten al algoritmo adaptarlas y crear otras nuevas para poder clasificar

Los datos con los que el algoritmo aprende (datos de entrenamiento) vienen ‘etiquetados’ (es decir, con

por el usuario (de ahí que este primer conjunto de métodos ), de manera que el algoritmo crea su modelo.

Así, el modelo se va mejorando conforme el algoritmo aprende a clasificar

Page 12: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Ilustración

Ejemplos de aprendizaje supervisado podrían ser la clasificación de Gmail en mensajes de SPAM/NO SPAM (o cualquier otra subcarpeta de la bandeja de entrada), donde el usuario ‘etiqueta’ y ayuda a aprender (diferenciar) al modelo. Del mismo modo, un reconocclasificar en retrato/paisaje/otros) sería otro ejemplo de aprendizaje supervisado. En ambos casos, el ‘etiquetado’ o supervisión ajena al algoritmo es una característica común de este tipo de aprendizaje. El otro gran grupo de métodos, técnicas y algoritmos del conocido como deep learningse introducen datos de entrenamiento etiquetados, sino que es el algoritmo el que crea los pateste caso, los datos de salida se usan de nuevo por el simodelo. El sistema busca características comunes y patrones para clasificar los datos, y se va realimentando a sí mismo sin necsupervisión externa. El deep learning se asemeja más al funcionamiento del cerebro humano, ya que, además de lo explicado, tiene una complejidad adicional a los modelos de aprenndizaje supervisado: Su organización en capas (o unidades neuronalesasimilación al funcionamiento del cerebro)probabilidad al resultado de la clasificación de los datos y se la pasa a la capa superior que, con otros parámetros, hace lde características evaluadas. La agrupación de datos en ‘clusters’ con características comunes es el campo de aplicación más frecuente de este tipo de aprendizaje (por ejemplo, clasificar los documentos por temáticas basándose en el análisis del contenido textual). La cantidad de datos de entrada juega aquí claramente a favor de este tipo de métodos (mejor

Ilustración 2 - Aprendizaje supervisado

Ejemplos de aprendizaje supervisado podrían ser la clasificación de Gmail en mensajes de SPAM/NO SPAM (o cualquier otra subcarpeta de la bandeja de entrada), donde el usuario ‘etiqueta’ y ayuda a aprender (diferenciar) al modelo. Del mismo modo, un reconocimiento de patrones en imágenes (por ejemplo, clasificar en retrato/paisaje/otros) sería otro ejemplo de aprendizaje

En ambos casos, el ‘etiquetado’ o supervisión ajena al algoritmo es una característica común de este tipo de aprendizaje.

otro gran grupo de métodos, técnicas y algoritmos del machine learningdeep learning (o aprendizaje no supervisado). En este grupo no

se introducen datos de entrenamiento etiquetados, sino que es el algoritmo el que crea los patrones (reglas) para, así, construir el modelo.este caso, los datos de salida se usan de nuevo por el sistema para mejorar el modelo. El sistema busca características comunes y patrones para clasificar los datos, y se va realimentando a sí mismo sin necesidad de ‘etiquetado’ o

El deep learning se asemeja más al funcionamiento del cerebro humano, ya que, además de lo explicado, tiene una complejidad adicional a los modelos de aprenndizaje supervisado: Su organización en

des neuronales, conectadas entre sí formando una redasimilación al funcionamiento del cerebro), en la que cada una asigna una probabilidad al resultado de la clasificación de los datos y se la pasa a la capa superior que, con otros parámetros, hace lo mismo hasta completar las capas

ísticas evaluadas. La agrupación de datos en ‘clusters’ con características comunes es el campo de aplicación más frecuente de este tipo de aprendizaje (por ejemplo, clasificar los documentos por temáticas

dose en el análisis del contenido textual). La cantidad de datos de entrada juega aquí claramente a favor de este tipo de métodos (mejor

12

Ejemplos de aprendizaje supervisado podrían ser la clasificación de Gmail en mensajes de SPAM/NO SPAM (o cualquier otra subcarpeta de la bandeja de entrada), donde el usuario ‘etiqueta’ y ayuda a aprender (diferenciar) al modelo.

imiento de patrones en imágenes (por ejemplo, clasificar en retrato/paisaje/otros) sería otro ejemplo de aprendizaje

En ambos casos, el ‘etiquetado’ o supervisión ajena al algoritmo

machine learning es el En este grupo no

se introducen datos de entrenamiento etiquetados, sino que es el propio rones (reglas) para, así, construir el modelo. En

stema para mejorar el modelo. El sistema busca características comunes y patrones para clasificar los

esidad de ‘etiquetado’ o El deep learning se asemeja más al funcionamiento del

cerebro humano, ya que, además de lo explicado, tiene una complejidad adicional a los modelos de aprenndizaje supervisado: Su organización en

, conectadas entre sí formando una red, por , en la que cada una asigna una

probabilidad al resultado de la clasificación de los datos y se la pasa a la capa o mismo hasta completar las capas

ísticas evaluadas. La agrupación de datos en ‘clusters’ con características comunes es el campo de aplicación más frecuente de este tipo de aprendizaje (por ejemplo, clasificar los documentos por temáticas

dose en el análisis del contenido textual). La cantidad de datos de entrada juega aquí claramente a favor de este tipo de métodos (mejor

Page 13: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

aprendizaje cuanto mayor volumen).configuración de este tipo de modelos. La siguilas posibilidades:

Ilustración 3 -

Análisis de redes sociales Uno de los principales factores para el auge de las tecnologías de Big Data hasido la explosión de la redes sociales. La cantidad de información que generan estas fuentes es enorme y creciente, tanto en ‘unidades informativas’ (ej., mensaje) como en tipología (texto, foto, video, audio, realidad virtual y aumentada), necesidad de cy receptores de contenido y, en consecuencia, volumen total.análisis de las redes sociales es unos de los campos con más actividad y potencial dentro de el ecosistema de desarrollos de Big Danecesario un amplio rango de tecnologías para recopilar, analizar y visualizar los resultados de este análisis: comportamiento humano

10 Yu Zhang, Mihaela van der Schaar, Information production and link formation in social computing systems, IEEE J. Sel. Areas Commun. 30 (1) (2012) 213611 Nicholas D. Lane, Ye Xu, Hong Lu, Andrew T. Campbell, Tanzeem Choudhury, Shane B. Eisenman, Exploiting socialnetworks for large-scale human behavior modeling, IEEE Pervasive Comput. 10 (4) (2011) 4512 Hao Ma, Irwin King, Michael Rung-Eng. 24 (12) (2012) 1051 1064.–13 Jean-Daniel Fekete Nathalie Henry, Michael J. McGuffin, Nodetrix: a hybrid visualization of social network, IEEE Trans. Visual. Comput. Graph. 13 (6)

aprendizaje cuanto mayor volumen). Existen multitud de posibilidades de configuración de este tipo de modelos. La siguiente gráfica ejemplifica una de

Ejemplo de modelo Deep Learning con red neuronal

Uno de los principales factores para el auge de las tecnologías de Big Data hasido la explosión de la redes sociales. La cantidad de información que generan

es enorme y creciente, tanto en ‘unidades informativas’ (ej., mensaje) como en tipología (texto, foto, video, audio, realidad virtual y aumentada), necesidad de capacidades de transmisión, dispositivos creadores y receptores de contenido y, en consecuencia, volumen total.análisis de las redes sociales es unos de los campos con más actividad y

el ecosistema de desarrollos de Big Data.necesario un amplio rango de tecnologías para recopilar, analizar y visualizar los resultados de este análisis: Diseño de sistemas sociales10, comportamiento humano11, minería y análisis de grafos12, visualización

Yu Zhang, Mihaela van der Schaar, Information production and link formation in social computing systems, IEEE J. (2012) 2136 2145.–

Nicholas D. Lane, Ye Xu, Hong Lu, Andrew T. Campbell, Tanzeem Choudhury, Shane B. Eisenman, Exploiting socialbehavior modeling, IEEE Pervasive Comput. 10 (4) (2011) 45 53.

-Tsong Lyu, Mining web graphs for recommendations, IEEE Trans. Knowl. Data

Daniel Fekete Nathalie Henry, Michael J. McGuffin, Nodetrix: a hybrid visualization of social network, IEEE Visual. Comput. Graph. 13 (6) (2007) 1302 1309.

13

Existen multitud de posibilidades de ente gráfica ejemplifica una de

Ejemplo de modelo Deep Learning con red neuronal

Uno de los principales factores para el auge de las tecnologías de Big Data ha sido la explosión de la redes sociales. La cantidad de información que generan

es enorme y creciente, tanto en ‘unidades informativas’ (ej., mensaje) como en tipología (texto, foto, video, audio, realidad virtual y

apacidades de transmisión, dispositivos creadores y receptores de contenido y, en consecuencia, volumen total. Por tanto, el análisis de las redes sociales es unos de los campos con más actividad y

. Así, se hace necesario un amplio rango de tecnologías para recopilar, analizar y visualizar

, modelado del , visualización13, etc.

Yu Zhang, Mihaela van der Schaar, Information production and link formation in social computing systems, IEEE J.

Nicholas D. Lane, Ye Xu, Hong Lu, Andrew T. Campbell, Tanzeem Choudhury, Shane B. Eisenman, Exploiting social 53.

Tsong Lyu, Mining web graphs for recommendations, IEEE Trans. Knowl. Data

Daniel Fekete Nathalie Henry, Michael J. McGuffin, Nodetrix: a hybrid visualization of social network, IEEE

Page 14: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

La posibilidad de conocer información directamente de los ‘usuarios finales’ de un producto o servicio (reacciones, comportamiento, uso, etc.) es el potencial más explotado actualmente dentro del análisis de redes sociales, existiendo interesantes iniciativas en el campo del perfilado decomportamiento humano.

Visualización de datos Una vez que las diferentes técnicas y tecnologías para la captura y el análisis de datos han hecho su trabajo, de estos pasos es la visualización de la información o el conocimiento generado. Si en todas las tecnologías de Big Data se puede decir que hay un avance casi diario en cuanto a nuevos modelos, algoritmos, técnicas, etc., en el campo de la visualización en esta amplio campo, podemos hacer una división de las tendencias en visualización poniendo el foco en cada uno de los protagonistas de la visualización: El mismo dato y el usuario del mismo. Si nos centramos en los datos, tenemos que poner el foco en las diferentes tecnologías de visualización para realizar infografías, mapas visualesAlgunas herramientas actuales y de uso generalista y extensivo en este ámbito son QlikView, Tableau o Google Fucon lenguajes de programación tipo R o Python. Los grandes consumidores a día de hoy de este tipo de tecnologías, además del mundo empresarial, son los colectivos de la educación, el marketing y el periodismo de d Si nos centramos en el consumidor de información, la esencia en este punto es proporcionarle un grado de interactividad y de comprensión del dato que facilite su asimilación, así como los grados de libertad para poder generar nueva información con los datos existentes.(aumentada y/o virtual), junto con aproximaciones como la gamificación hacen que el usuario pueda asimilar y explotar la información proporcionada por un análisis de Big Data de manera satisfacto En este punto es importante remarcar información adecuado a los objetivos de visualización, para poder resultado acorde a las especcomo se comentó en puntos anteriores, uno de los principales objetivos de la generación de nuevo conocimiento es ofrecer un soporte a la toma de decisiones.

posibilidad de conocer información directamente de los ‘usuarios finales’ de un producto o servicio (reacciones, comportamiento, uso, etc.) es el potencial más explotado actualmente dentro del análisis de redes sociales, existiendo

en el campo del perfilado de usuarios y análisis del comportamiento humano.

ferentes técnicas y tecnologías para la captura y el análisis de datos han hecho su trabajo, un punto clave para comprobar los resultadode estos pasos es la visualización de la información o el conocimiento

Si en todas las tecnologías de Big Data se puede decir que hay un avance casi diario en cuanto a nuevos modelos, algoritmos, técnicas, etc., en el campo de la visualización este hecho se acentúa incluso más aún.en esta amplio campo, podemos hacer una división de las tendencias en visualización poniendo el foco en cada uno de los protagonistas de la visualización: El mismo dato y el usuario del mismo.

centramos en los datos, tenemos que poner el foco en las diferentes tecnologías de visualización para realizar infografías, mapas visualesAlgunas herramientas actuales y de uso generalista y extensivo en este ámbito son QlikView, Tableau o Google Fusion Tables, además de desarrollos ad hoc con lenguajes de programación tipo R o Python. Los grandes consumidores a día de hoy de este tipo de tecnologías, además del mundo empresarial, son los colectivos de la educación, el marketing y el periodismo de datos.

Si nos centramos en el consumidor de información, la esencia en este punto es proporcionarle un grado de interactividad y de comprensión del dato que facilite su asimilación, así como los grados de libertad para poder generar nueva

os datos existentes. El uso de tecnologías de realidad mixta (aumentada y/o virtual), junto con aproximaciones como la gamificación hacen que el usuario pueda asimilar y explotar la información proporcionada por un análisis de Big Data de manera satisfactoria.

En este punto es importante remarcar la relevancia de realizar una análisis de información adecuado a los objetivos de visualización, para poder resultado acorde a las espectativas del usuario, y teniendo en cuenta que, como se comentó en puntos anteriores, uno de los principales objetivos de la generación de nuevo conocimiento es ofrecer un soporte a la toma de

14

posibilidad de conocer información directamente de los ‘usuarios finales’ de un producto o servicio (reacciones, comportamiento, uso, etc.) es el potencial más explotado actualmente dentro del análisis de redes sociales, existiendo

usuarios y análisis del

ferentes técnicas y tecnologías para la captura y el análisis un punto clave para comprobar los resultados

de estos pasos es la visualización de la información o el conocimiento Si en todas las tecnologías de Big Data se puede decir que hay un

avance casi diario en cuanto a nuevos modelos, algoritmos, técnicas, etc., en el este hecho se acentúa incluso más aún. Para dar luz

en esta amplio campo, podemos hacer una división de las tendencias en visualización poniendo el foco en cada uno de los protagonistas de la

centramos en los datos, tenemos que poner el foco en las diferentes tecnologías de visualización para realizar infografías, mapas visuales etc. Algunas herramientas actuales y de uso generalista y extensivo en este ámbito

sion Tables, además de desarrollos ad hoc con lenguajes de programación tipo R o Python. Los grandes consumidores a día de hoy de este tipo de tecnologías, además del mundo empresarial, son

atos.

Si nos centramos en el consumidor de información, la esencia en este punto es proporcionarle un grado de interactividad y de comprensión del dato que facilite su asimilación, así como los grados de libertad para poder generar nueva

El uso de tecnologías de realidad mixta (aumentada y/o virtual), junto con aproximaciones como la gamificación hacen que el usuario pueda asimilar y explotar la información proporcionada por un

la relevancia de realizar una análisis de información adecuado a los objetivos de visualización, para poder ofrecer un

tativas del usuario, y teniendo en cuenta que, como se comentó en puntos anteriores, uno de los principales objetivos de la generación de nuevo conocimiento es ofrecer un soporte a la toma de

Page 15: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

04. Aplicaciones de Big Data para construcción

Una vez descrito un resumen de los conceptos y tecnologías más importantes de Big Data, vamos a opciones actuales más frecuentes en este ámbito. La maquinaria de construcción y los aparatos elevadores son undel sector de la construcción y, como tales, pueden a la vez aprovecharse de y liderar los avances en el uso de Big Data para crear valor dentro de este sector. Por ello, en este punto contemplaremos opciones de aplicación de estas tecnologías desde el punto de vista de la funcionalidad [utilidad] para el sector, las cuales podrán hacer más o menos uso de maquinaria de construción y aparatos elevadores en cada caso o p

04.1. Big Data en la construcción: El sector de la construcción, por su propiade los mayores proyectos del mundo, en cuanto a las dimensiones y el volumen de sus recursos físicos. Desde el punto de vista del Big Data, estas dimensiones se corresponden tambiégenerados, lo que hace que tipo de tecnologías. Otro punto a favor para la aplicación de tecnologías de Big Data en la construcción es el gran camino por hacer en actual del sector, existe una enorme cantidad de datos para ser explotados, conforme se avance en digitalización de procesos, maquinaria, gestión de recursos y proyectos, etc., de la implantación de un paradigma BIM en el sector ayuda en gran medida a este incremento de la digitalizacióncon potencial de ser aprovechados para su análisis. Por último, el potencial de los ‘activos físicos’ de todos los avances en el campo de IoT hace que no sólo la progresiva incorporación tecnológica al sector (digitalización) sea generadora de datos, sino que asociarse con y apalancarse en los avances de otros elementos de IoT incrementarán la competitividad del sector (no sólo con generación de datos para ser analizados sino también con el uso de datos de terceros).

Aplicaciones de Big Data para construcción

un resumen de los conceptos y tecnologías más importantes ver su aplicación al campo de la construcción y las

opciones actuales más frecuentes en este ámbito.

La maquinaria de construcción y los aparatos elevadores son undel sector de la construcción y, como tales, pueden a la vez aprovecharse de y liderar los avances en el uso de Big Data para crear valor dentro de este sector.

Por ello, en este punto contemplaremos opciones de aplicación de estas s desde el punto de vista de la funcionalidad [utilidad] para el sector,

las cuales podrán hacer más o menos uso de maquinaria de construción y tos elevadores en cada caso o proyecto concreto.

Big Data en la construcción: Existe materia prima

sector de la construcción, por su propia naturaleza, desarrolla buena parte de los mayores proyectos del mundo, en cuanto a las dimensiones y el volumen de sus recursos físicos. Desde el punto de vista del Big Data, estas dimensiones se corresponden también con una gran cantidad de datos generados, lo que hace que el sector tenga un gran potencial para aplicar este

Otro punto a favor para la aplicación de tecnologías de Big Data en la el gran camino por hacer en digitalización. Si,

existe una enorme cantidad de datos para ser explotados, conforme se avance en digitalización de procesos, maquinaria, gestión de recursos y proyectos, etc., se verá incrementado exponencialmente

la implantación de un paradigma BIM en el sector ayuda en gran medida a este incremento de la digitalización y, en consecuencia, de la cantidad de datos con potencial de ser aprovechados para su análisis.

el potencial de los ‘activos físicos’ de este sector para aprovecharse de todos los avances en el campo de IoT hace que no sólo la progresiva incorporación tecnológica al sector (digitalización) sea generadora de datos, sino que asociarse con y apalancarse en los avances de otros elementos de IoT incrementarán la competitividad del sector (no sólo con generación de datos para ser analizados sino también con el uso de datos de terceros).

15

un resumen de los conceptos y tecnologías más importantes ver su aplicación al campo de la construcción y las

La maquinaria de construcción y los aparatos elevadores son un subconjunto del sector de la construcción y, como tales, pueden a la vez aprovecharse de y liderar los avances en el uso de Big Data para crear valor dentro de este sector.

Por ello, en este punto contemplaremos opciones de aplicación de estas s desde el punto de vista de la funcionalidad [utilidad] para el sector,

las cuales podrán hacer más o menos uso de maquinaria de construción y

Existe materia prima

naturaleza, desarrolla buena parte de los mayores proyectos del mundo, en cuanto a las dimensiones y el volumen de sus recursos físicos. Desde el punto de vista del Big Data, estas

n con una gran cantidad de datos el sector tenga un gran potencial para aplicar este

Otro punto a favor para la aplicación de tecnologías de Big Data en la con el estado

existe una enorme cantidad de datos para ser explotados, conforme se avance en digitalización de procesos, maquinaria, gestión de

se verá incrementado exponencialmente. El avance la implantación de un paradigma BIM en el sector ayuda en gran medida a

y, en consecuencia, de la cantidad de datos

de este sector para aprovecharse de todos los avances en el campo de IoT hace que no sólo la progresiva incorporación tecnológica al sector (digitalización) sea generadora de datos, sino que asociarse con y apalancarse en los avances de otros elementos de IoT incrementarán la competitividad del sector (no sólo con generación de datos para ser analizados sino también con el uso de datos de terceros).

Page 16: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

04.2. Antes de empezar un proyecto de Big Data: ¿para qué queremos los datos?

No sólo en la construcción, sino en cualquier sector, preguntarnos siempre para qué queremos explotar los datos es una buena práctica. y/o implantar tecnologías de Big Data implica que queremos saber qué nos dicen los datos para obtenemayoría de las ocasiones, para usarlo como referencia o ayuda para la toma de decisiones. Si esto es así, ayudará tener unos objetivos de información sobre los cuales construir el sistema de Big Data, además ddisponibilidad de los datos origen sobre los que queremos realizar los análisis. La definición de indicadores y el ‘roadmap’ o pasos necesarios para implel sistema de Big Data serán también importantes para llegar a nuest Por último, también podrá ser necesaior tener en cuenta organizativas y/o de procesos necesarias para poder hacer un uso óptimo de la información generada. Desde no tener datos o tenerlos y no usarlos, hasta ser una organidecisiones son en buena medida ‘dataque dicen los datos, más allá de estrategias o tácticas predefinidas y no originadas en datos reales) hay un largo camino. Y no sólo tecnológico, sino que la organización debe ser consciente de que el proceso de toma de decisiones se verá alterado por el ‘input’ Los Datos.

04.3. Sobre BIM y su El BIM (Building Information Modelingdesarrollar y utilizar modelos inteligentes que contienen información para apoyar decisiones y procesos de diseño, construcción y operación durante todo el ciclo de vida de un proyecto, lo que implica una integración y gestión de información provista y usproyecto14. Esta visión de BIM como metodología que pone a la gestión de la información como punto central, hace que lacasos y sectores de fabricación.

14 Definición de BIM del Grupo Técnico de Trabajo de Educación de BIM Forum Chile

Antes de empezar un proyecto de Big Data: ¿para qué queremos los datos?

No sólo en la construcción, sino en cualquier sector, preguntarnos siempre para qué queremos explotar los datos es una buena práctica. Desarrollar, adaptar y/o implantar tecnologías de Big Data implica que queremos saber qué nos dicen los datos para obtener nueva información y conocimiento. Y, en la mayoría de las ocasiones, para usarlo como referencia o ayuda para la toma

ayudará tener unos objetivos de información sobre los cuales construir el sistema de Big Data, además de verificar la naturaleza y disponibilidad de los datos origen sobre los que queremos realizar los análisis.

La definición de indicadores y el ‘roadmap’ o pasos necesarios para implel sistema de Big Data serán también importantes para llegar a nuest

también podrá ser necesaior tener en cuenta las modificaciones organizativas y/o de procesos necesarias para poder hacer un uso óptimo de la

Desde no tener datos o tenerlos y no usarlos, hasta ser una organidecisiones son en buena medida ‘data-driven’ (dirigidas por o basadas en lo que dicen los datos, más allá de estrategias o tácticas predefinidas y no originadas en datos reales) hay un largo camino. Y no sólo tecnológico, sino

ión debe ser consciente de que el proceso de toma de decisiones se verá alterado por el ‘input’ de este nuevo actor en la empresa:

Sobre BIM y su relación con Big Data

Building Information Modeling) es una metodología colaborativa paradesarrollar y utilizar modelos inteligentes que contienen información para apoyar decisiones y procesos de diseño, construcción y operación durante todo el ciclo de vida de un proyecto, lo que implica una integración y gestión de información provista y usada en diversos formatos y por diferentes actores del

Esta visión de BIM como metodología que pone a la gestión de la información como punto central, hace que la podamos aplicar en diferentes casos y sectores de fabricación.

del Grupo Técnico de Trabajo de Educación de BIM Forum Chile

16

Antes de empezar un proyecto de Big Data: ¿para qué

No sólo en la construcción, sino en cualquier sector, preguntarnos siempre para Desarrollar, adaptar

y/o implantar tecnologías de Big Data implica que queremos saber qué nos r nueva información y conocimiento. Y, en la

mayoría de las ocasiones, para usarlo como referencia o ayuda para la toma

ayudará tener unos objetivos de información sobre los cuales e verificar la naturaleza y

disponibilidad de los datos origen sobre los que queremos realizar los análisis.

La definición de indicadores y el ‘roadmap’ o pasos necesarios para implantar el sistema de Big Data serán también importantes para llegar a nuestro destino.

las modificaciones organizativas y/o de procesos necesarias para poder hacer un uso óptimo de la

Desde no tener datos o tenerlos y no usarlos, hasta ser una organización cuyas driven’ (dirigidas por o basadas en lo

que dicen los datos, más allá de estrategias o tácticas predefinidas y no originadas en datos reales) hay un largo camino. Y no sólo tecnológico, sino

ión debe ser consciente de que el proceso de toma de de este nuevo actor en la empresa:

es una metodología colaborativa para desarrollar y utilizar modelos inteligentes que contienen información para apoyar decisiones y procesos de diseño, construcción y operación durante todo el ciclo de vida de un proyecto, lo que implica una integración y gestión de

ada en diversos formatos y por diferentes actores del Esta visión de BIM como metodología que pone a la gestión de la

podamos aplicar en diferentes

Page 17: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Iniciado como mera evolución del diseño CAD en 2D hacia una modelización 3D, aprovechando las cada vez mejores capacidades computacionales y de software, el BIM se ha movido de manertransciende el diseño y trata de producir un modelo de infopartir de diferentes fuentes: Geometría, relaciones espaciales, información geográfica, propiedades de los componentes y cualquier otra información Al tratarse de una metodología, el modelo BIM está siendo adoptadomultitud de procesos de fabricación, moviendo el foco desde el inicial diseño en 3D de edificios a una gestión integrada de la información de un proceso de desarrollo de producto industrial.a un software de diseño 3D colaborativo, lo que ha ido evolucionando hacia una nueva manera de trabajar (metodología) que incluye no sólo la fase de diseño, sino todo el ciclo de vida del producto, además derelevantes. De hecho, es esta “capa de BIM en el estándar de facto a la hora de Por tanto, trabajar con una metodología BIM hace que global de la información con la que trabaja nuestro proyecto y, presulta un escenario propicio para poder aplicar tecnologías de Big Data que den un valor adicional. Trabajar con una metodología BIM es relevante para el sector de maquinaria de construcción y obra pública y aparatos elevadores desde una doperspectiva:

- Como parte de proyectos de construcción, la apmetodología BIM implicará que todos los participantes en el mismo podrán proporcionar y recibir datos que afecten al proyecto global y, en su caso, actuar en base a los mismos.fases del ciclo de vida posteriores a la construcción (ej. Aparatos elevadores o maquinaria destinada al mantenimiento del edificio).

- Como buena práctica a la hora deproducto

La aplicación de tecnologías de Big Data en estobvio una vez tenemos una gestión ordenada y consciente de los datos. Muchas veces la cantidad de datos calificarse de ‘Big Data’ en cuanto a su vtécnicas detalladas en puntos anteriores pueden ser aplicadas igualmente para poder obtener información valiosa de dichos datos.

evolución del diseño CAD en 2D hacia una modelización aprovechando las cada vez mejores capacidades computacionales y de

software, el BIM se ha movido de manera clara hacia una metodología que transciende el diseño y trata de producir un modelo de información unificado a partir de diferentes fuentes: Geometría, relaciones espaciales, información geográfica, propiedades de los componentes y cualquier otra información

Al tratarse de una metodología, el modelo BIM está siendo adoptadocesos de fabricación, moviendo el foco desde el inicial diseño en

3D de edificios a una gestión integrada de la información de un proceso de desarrollo de producto industrial. En general, al hablar de BIM se suele asimilar

de diseño 3D colaborativo, lo que ha ido evolucionando hacia una nueva manera de trabajar (metodología) que incluye no sólo la fase de diseño, sino todo el ciclo de vida del producto, además de otros inputs de datos

De hecho, es esta “capa de datos adicional” la que ha convertido a BIM en el estándar de facto a la hora de gestionar los datos en un edificio.

Por tanto, trabajar con una metodología BIM hace que tengamos una visión global de la información con la que trabaja nuestro proyecto y, presulta un escenario propicio para poder aplicar tecnologías de Big Data que

Trabajar con una metodología BIM es relevante para el sector de maquinaria de construcción y obra pública y aparatos elevadores desde una do

Como parte de proyectos de construcción, la aplicación de una metodología BIM implicará que todos los participantes en el mismo podrán proporcionar y recibir datos que afecten al proyecto global y, en su caso, actuar en base a los mismos. Más aún cuando se participe en fases del ciclo de vida posteriores a la construcción (ej. Aparatos

maquinaria destinada al mantenimiento del edificio).

Como buena práctica a la hora del propio desarrollo y ciclo de vida del

cación de tecnologías de Big Data en este punto parece, pues, el paso obvio una vez tenemos una gestión ordenada y consciente de los datos. Muchas veces la cantidad de datos disponibles en un proyecto BIM no podrá calificarse de ‘Big Data’ en cuanto a su volumen pero, de cualquier modo, las técnicas detalladas en puntos anteriores pueden ser aplicadas igualmente para poder obtener información valiosa de dichos datos.

17

evolución del diseño CAD en 2D hacia una modelización aprovechando las cada vez mejores capacidades computacionales y de

a clara hacia una metodología que rmación unificado a

partir de diferentes fuentes: Geometría, relaciones espaciales, información geográfica, propiedades de los componentes y cualquier otra información

Al tratarse de una metodología, el modelo BIM está siendo adoptado por cesos de fabricación, moviendo el foco desde el inicial diseño en

3D de edificios a una gestión integrada de la información de un proceso de al hablar de BIM se suele asimilar

de diseño 3D colaborativo, lo que ha ido evolucionando hacia una nueva manera de trabajar (metodología) que incluye no sólo la fase de

otros inputs de datos datos adicional” la que ha convertido a gestionar los datos en un edificio.

tengamos una visión global de la información con la que trabaja nuestro proyecto y, por lo tanto, resulta un escenario propicio para poder aplicar tecnologías de Big Data que

Trabajar con una metodología BIM es relevante para el sector de maquinaria de construcción y obra pública y aparatos elevadores desde una doble

licación de una metodología BIM implicará que todos los participantes en el mismo podrán proporcionar y recibir datos que afecten al proyecto global y, en

Más aún cuando se participe en fases del ciclo de vida posteriores a la construcción (ej. Aparatos

maquinaria destinada al mantenimiento del edificio).

rrollo y ciclo de vida del

e punto parece, pues, el paso obvio una vez tenemos una gestión ordenada y consciente de los datos.

disponibles en un proyecto BIM no podrá olumen pero, de cualquier modo, las

técnicas detalladas en puntos anteriores pueden ser aplicadas igualmente para

Page 18: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Un punto a tener en cuenta cuando apliquemos tecnologías de Big Data a datos gestionados por un BIM es que, muy frecuentemente, nos encontraremos esencialmente con datos estructuradoparte, facilita parte del proceso de Big Data al hacer innecesario alguno de sus pasos. Sin embargo, también puede implicacomentamos a continuación:

- Como vimos en el punto (se basan en el hecho de la naturaleza ndatos. Tratar solamente limitada de información puede necesidad de explotación de datos pueda verse satisfecha con un sistema de Businessevaluación de la cantidad y calidad de nustros datos de origen será imprescindible para elegir la mejor solución de explotación de los mismos.

- Puede ser que la implantación de BIM en el proyecto no contemple fuentes de datos adicionales que sí que contengan un volumen y una no-estructuración calificable como Big Data. Este escenario puede darse frecuentemente en fases del ciclo de vida posteriores al diseño y al desarrollo, cuando en una instalación no se tieneejemplo, de consumo energético. Es estos casos podrá ser necesario establecer el BIM como un input más de nuestro sistema de Big Data, sin limitarnos a los datos gestionados por dicho BIM.

Por último, es importante remarcar que la vsistemas de Big Data para crear conocimiento es la integración de diversas y diferentes fuentes de datostipo de información que nos pueda resultar valiosa. Dado que los sistemse limitan a la información interna de un determinado interesante contemplar otras fuentes (datos de usuarios otras fuentes-, elementos de IoT, sistemas GIS partido a nuestras conclusiones sobre los datos.

04.4. Optimización de recursos y residuos Uno de los campos de actuación con un mayor potencial para obtener beneficios de la aplicación de tecnologías de Big Data en el ámbito de la [maquinaria de] construcción a pasar de un modelo reactivo (acciones, modelos y metodologías de gestión de los recursos y residuos una vez obtenidos y generados, respectivamente) a otro planificado e incluso predictivo. Si tenemos un proceso diri

Un punto a tener en cuenta cuando apliquemos tecnologías de Big Data a os por un BIM es que, muy frecuentemente, nos encontraremos

esencialmente con datos estructurados y ya ‘limpios’. Este hecho, por una parte, facilita parte del proceso de Big Data al hacer innecesario alguno de sus pasos. Sin embargo, también puede implicar ciertas desventajas que comentamos a continuación:

Como vimos en el punto (02.1), muchas de las tecnologías de se basan en el hecho de la naturaleza no estructurada de las fuentes de

solamente con bases de datos relacionales y una cantidalimitada de información puede ser un indicio de que, quizás, nuestra necesidad de explotación de datos pueda verse satisfecha con un sistema de Business Intelligence clásico. En cualquier caso, una evaluación de la cantidad y calidad de nustros datos de origen será imprescindible para elegir la mejor solución de explotación de los

Puede ser que la implantación de BIM en el proyecto no contemple uentes de datos adicionales que sí que contengan un volumen y una

estructuración calificable como Big Data. Este escenario puede darse frecuentemente en fases del ciclo de vida posteriores al diseño y al desarrollo, cuando en una instalación no se tienen en cuenta datos, por ejemplo, de consumo energético. Es estos casos podrá ser necesario establecer el BIM como un input más de nuestro sistema de Big Data,

nos a los datos gestionados por dicho BIM.

es importante remarcar que la verdadera potencialidad de los sistemas de Big Data para crear conocimiento es la integración de diversas y diferentes fuentes de datos, con las que podamos inferir patrones o cualquier tipo de información que nos pueda resultar valiosa. Dado que los sistemse limitan a la información interna de un determinado proyecto, siempre será interesante contemplar otras fuentes (datos de usuarios –vía redes sociales u

, elementos de IoT, sistemas GIS --, etc.) para enriquecer y sacar stras conclusiones sobre los datos.

Optimización de recursos y residuos

Uno de los campos de actuación con un mayor potencial para obtener beneficios de la aplicación de tecnologías de Big Data en el ámbito de la [maquinaria de] construcción es el de la optimización de recursos.a pasar de un modelo reactivo (acciones, modelos y metodologías de gestión de los recursos y residuos una vez obtenidos y generados, respectivamente) a otro planificado e incluso predictivo. Si tenemos un proceso diri

18

Un punto a tener en cuenta cuando apliquemos tecnologías de Big Data a los os por un BIM es que, muy frecuentemente, nos encontraremos

s y ya ‘limpios’. Este hecho, por una parte, facilita parte del proceso de Big Data al hacer innecesario alguno de sus

r ciertas desventajas que

), muchas de las tecnologías de Big Data o estructurada de las fuentes de

con bases de datos relacionales y una cantidad que, quizás, nuestra

necesidad de explotación de datos pueda verse satisfecha con un Intelligence clásico. En cualquier caso, una

evaluación de la cantidad y calidad de nustros datos de origen será imprescindible para elegir la mejor solución de explotación de los

Puede ser que la implantación de BIM en el proyecto no contemple uentes de datos adicionales que sí que contengan un volumen y una

estructuración calificable como Big Data. Este escenario puede darse frecuentemente en fases del ciclo de vida posteriores al diseño y al

n en cuenta datos, por ejemplo, de consumo energético. Es estos casos podrá ser necesario establecer el BIM como un input más de nuestro sistema de Big Data,

erdadera potencialidad de los sistemas de Big Data para crear conocimiento es la integración de diversas y

, con las que podamos inferir patrones o cualquier tipo de información que nos pueda resultar valiosa. Dado que los sistemas BIM

proyecto, siempre será vía redes sociales u

para enriquecer y sacar

Uno de los campos de actuación con un mayor potencial para obtener beneficios de la aplicación de tecnologías de Big Data en el ámbito de la

optimización de recursos. La tendencia a pasar de un modelo reactivo (acciones, modelos y metodologías de gestión de los recursos y residuos una vez obtenidos y generados, respectivamente) a otro planificado e incluso predictivo. Si tenemos un proceso dirigido por los

Page 19: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

datos desde el inicio, como propone BIM, se podrá hacer una mejor gestión de los recursos necesarios para el proyecto, a la vez que minimizar la generación de residuos. La tendencia conocida como Waste Analyticsproactivos de conjuntos de datos desagregados y masivos para descubrir las correlaciones no obvias relacionadas con el diseño, las adquisiciones, materiales y la cadena de suministro, lo que podría ocasionar desperdicio durante la etapa de construcción realavanzados para pronosticar el desperdicio y prescribir acciones para minimizar el desperdicio de manera preventiva Más en detalle, algunas de las tecnologías específicas de Big Data que puededar respuesta a estas necesidades podrían ser la creación de robustos de estimación de generación de residuos omateriales basada en BIM durante la especificación de diseño En base a ello, podremos dar una respuesta como las siguientes:

- Distribución de los residuos + reciclaje- Seguimiento de las predicciones de residuos- Trazabilidad respecto a los costes y al diseño de la construcción

04.5. Servicios de valor añadido A continuación se describen alguno de los servicios adicionales que se pueden ofrecer en el sector gracias a la aplicación de las tecnologías de Big Data.

Diseño generativo El concepto de este tipo de diseño es generar multitud de opciones posibles automáticamente, que no se c(dirigido únicamente porciertos objetivos de diseño especificados (restricciones), como por ejemplo funcionalidades, tipo de material, rendimiento energético, método defabricación, restricciones de costes, etc.

15 M. Bilal, L.O. Oyedele, O.O. Akinade, S.O. Ajayi, H.A. Alaka, H.A. Owolabi, J.Qadir, M. Pasha, S.A. Bello, Big data architecture for construction wasteanalytics (cwa): a conceptual framework, J. Build. Eng. (2016).

datos desde el inicio, como propone BIM, se podrá hacer una mejor gestión de los recursos necesarios para el proyecto, a la vez que minimizar la generación

La tendencia conocida como Waste Analytics 15 trata de realizar análisis roactivos de conjuntos de datos desagregados y masivos para descubrir las

correlaciones no obvias relacionadas con el diseño, las adquisiciones, materiales y la cadena de suministro, lo que podría ocasionar desperdicio durante la etapa de construcción real. Podrían emplearse enfoques analíticos avanzados para pronosticar el desperdicio y prescribir la mejor secuencia de

para minimizar el desperdicio de manera preventiva.

Más en detalle, algunas de las tecnologías específicas de Big Data que puededar respuesta a estas necesidades podrían ser la creación de

ación de generación de residuos o la selección óptima de materiales basada en BIM durante la especificación de diseño.

En base a ello, podremos dar una respuesta basada en datos a necesidades

Distribución de los residuos + reciclaje Seguimiento de las predicciones de residuos Trazabilidad respecto a los costes y al diseño de la construcción

Servicios de valor añadido

iben alguno de los servicios adicionales que se pueden ofrecer en el sector gracias a la aplicación de las tecnologías de Big Data.

El concepto de este tipo de diseño es generar multitud de opciones posibles que no se contemplarían mediante un proceso manual

(dirigido únicamente por un humano). Estas opciones estarían basadas en ciertos objetivos de diseño especificados (restricciones), como por ejemplo funcionalidades, tipo de material, rendimiento energético, método defabricación, restricciones de costes, etc.

M. Bilal, L.O. Oyedele, O.O. Akinade, S.O. Ajayi, H.A. Alaka, H.A. Owolabi, J.Qadir, M. Pasha, S.A. Bello, Big data ture for construction wasteanalytics (cwa): a conceptual framework, J. Build. Eng. (2016).–

19

datos desde el inicio, como propone BIM, se podrá hacer una mejor gestión de los recursos necesarios para el proyecto, a la vez que minimizar la generación

trata de realizar análisis roactivos de conjuntos de datos desagregados y masivos para descubrir las

correlaciones no obvias relacionadas con el diseño, las adquisiciones, materiales y la cadena de suministro, lo que podría ocasionar desperdicio

Podrían emplearse enfoques analíticos la mejor secuencia de

Más en detalle, algunas de las tecnologías específicas de Big Data que pueden dar respuesta a estas necesidades podrían ser la creación de modelos

la selección óptima de

basada en datos a necesidades

Trazabilidad respecto a los costes y al diseño de la construcción

iben alguno de los servicios adicionales que se pueden ofrecer en el sector gracias a la aplicación de las tecnologías de Big Data.

El concepto de este tipo de diseño es generar multitud de opciones posibles ontemplarían mediante un proceso manual

. Estas opciones estarían basadas en ciertos objetivos de diseño especificados (restricciones), como por ejemplo funcionalidades, tipo de material, rendimiento energético, método de

M. Bilal, L.O. Oyedele, O.O. Akinade, S.O. Ajayi, H.A. Alaka, H.A. Owolabi, J.Qadir, M. Pasha, S.A. Bello, Big data –

Page 20: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Con los objetivos especificados ydiseño generativo, se crean los modelos que son evaluados por el diseñador que, de esta forma, puede centrarse en valorar el diseño (y haga falta) más que en el proceso completo (además de contar con un conjunto elevado de opciones de diseño ya generadas). Una vez valoradopuede volver a iterar determinado subconjunto permite tener un motor generador de modelos con la potencia de aplicar algortimia de Inteligenciaque facilite la labor del diseñador. El software para diseño generativo está todavía en su nacimiento, con pocas opciones y, de las cuales, la más destacable es el proyecto DreamcatcherAutodesk.

Detección y resolución de conflictos El software de BIM tiene cierta capacidad para resolver algunos de los conflictos que surgen en la etapa de diseño. Sin embargoconflictos de diseño pueden requerir una algoritmia más compleja que el habitual sistema de reglas de BIM, lo que a su vez redunda en un consumo de tiempo mayor. Mediante algoritmos de exploración propios de Big Data se puede abarcar una casuística más amplia que clave para poder aplicar estas técnicas son, por un lado, disponer de los datos de diseño que maneja el BIM y, por otro, ser tengan potencial de detectar posibles conflictos en el diseño de producto.

Predicción y gestión del rendimiento Los modelos de predicción del rendimiento no sueleherramientas tradicionalecapaz de realizar ciertas estimaciones de rendimiento, pero no con los resultados que una algoritmia y un uso computacional superior proporcionan. Una de las aplicaciones más importantes de estos modelos predgestión energética y de consumo. un edificio o maquinaria es esencial para una buena gestión y control del gasto a lo largo de todo el ciclo de vida

16 https://autodeskresearch.com/projects/dreamcatcher

Con los objetivos especificados y la algoritmia contenida en el software de diseño generativo, se crean los modelos que son evaluados por el diseñador que, de esta forma, puede centrarse en valorar el diseño (y modificarlo cuando haga falta) más que en el proceso completo (además de contar con un conjunto elevado de opciones de diseño ya generadas). Una vez valorado

a iterar en la generación automática de diseños para determinado subconjunto de los mismos. Este proceso de ‘diseño asistido’

motor generador de modelos con la potencia de aplicar a Artificial a grandes cantidades de datos, de manera

que facilite la labor del diseñador.

seño generativo está todavía en su nacimiento, con pocas opciones y, de las cuales, la más destacable es el proyecto Dreamcatcher

Detección y resolución de conflictos

tiene cierta capacidad para resolver algunos de los conflictos que surgen en la etapa de diseño. Sin embargo, muchos de los conflictos de diseño pueden requerir una algoritmia más compleja que el habitual sistema de reglas de BIM, lo que a su vez redunda en un consumo de

e exploración propios de Big Data se puede abarcar una casuística más amplia que con la detacción de conflictos de BIM. Los puntos clave para poder aplicar estas técnicas son, por un lado, disponer de los datos de diseño que maneja el BIM y, por otro, ser capaces de añadir otros datos que tengan potencial de detectar posibles conflictos en el diseño de producto.

Predicción y gestión del rendimiento

Los modelos de predicción del rendimiento no suelen ser soportados por las herramientas tradicionales. Como en el caso anterior, un software tipo BIM será capaz de realizar ciertas estimaciones de rendimiento, pero no con los resultados que una algoritmia y un uso computacional superior proporcionan.

Una de las aplicaciones más importantes de estos modelos predgestión energética y de consumo. Estimar y prever el consumo energético de un edificio o maquinaria es esencial para una buena gestión y control del gasto a lo largo de todo el ciclo de vida.

https://autodeskresearch.com/projects/dreamcatcher–

20

la algoritmia contenida en el software de diseño generativo, se crean los modelos que son evaluados por el diseñador

modificarlo cuando haga falta) más que en el proceso completo (además de contar con un conjunto elevado de opciones de diseño ya generadas). Una vez valorados, se

tica de diseños para un de los mismos. Este proceso de ‘diseño asistido’

motor generador de modelos con la potencia de aplicar Artificial a grandes cantidades de datos, de manera

seño generativo está todavía en su nacimiento, con pocas opciones y, de las cuales, la más destacable es el proyecto Dreamcatcher16 de

tiene cierta capacidad para resolver algunos de los , muchos de los

conflictos de diseño pueden requerir una algoritmia más compleja que el habitual sistema de reglas de BIM, lo que a su vez redunda en un consumo de

e exploración propios de Big Data se puede abarcar una con la detacción de conflictos de BIM. Los puntos

clave para poder aplicar estas técnicas son, por un lado, disponer de los datos capaces de añadir otros datos que

tengan potencial de detectar posibles conflictos en el diseño de producto.

ser soportados por las en el caso anterior, un software tipo BIM será

capaz de realizar ciertas estimaciones de rendimiento, pero no con los resultados que una algoritmia y un uso computacional superior proporcionan.

Una de las aplicaciones más importantes de estos modelos predictivos es la Estimar y prever el consumo energético de

un edificio o maquinaria es esencial para una buena gestión y control del gasto

Page 21: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

04.6. Gestión de instalaciones y maquinaria El mantenimiento predictivo es unos de los campos en los que las tecnologías de Big Data han entrado de manera más sencilla en muchos sectores. Los costes de reparación y mantenimiento son uno de los factores más decisivos a la hora de adquirir cualquier tipo de mafiabilidad y la robustez, los primeros suelen constituir un factor de compraclave. Frente al mantenimiento al preventivo (revisiones planificadas)adelantarse a la aparición de problemas para tomar las medidas necesarias con anterioridad. Los beneficios de este tipo de mantenimiento son evidentes, tanto en la durabilidad de la máquina como en el ahorro de costes: Por un lado, evitamos reparaciones costosas anticipándonos a los problemas, mientras que por otro también evitamos revisiones infructuosas o redundantes.siguiente gráfico podemos ver lmantenimiento elegido:

Las tecnologías de Big Datamantenimiento:

- Para mantenimiento correctivo, la analítica hace uso de los datos proporcionados por la máquina antes y durante el fallo para responder a la pregunta de “¿qué ha pasado?”pasado?”

Gestión de instalaciones y maquinaria

imiento predictivo es unos de los campos en los que las tecnologías de Big Data han entrado de manera más sencilla en muchos sectores. Los costes de reparación y mantenimiento son uno de los factores más decisivos a la hora de adquirir cualquier tipo de maquinaria y, siendo importante la fiabilidad y la robustez, los primeros suelen constituir un factor de compra

Frente al mantenimiento correctivo (solución de problemas cuando aparecen) y al preventivo (revisiones planificadas), el mantenimiento predictivo trata de adelantarse a la aparición de problemas para tomar las medidas necesarias con anterioridad. Los beneficios de este tipo de mantenimiento son evidentes, tanto en la durabilidad de la máquina como en el ahorro de costes: Por un lado,

s reparaciones costosas anticipándonos a los problemas, mientras que también evitamos revisiones infructuosas o redundantes.

siguiente gráfico podemos ver la gráfica de costes según el tipo de

Ilustración 4 - Costes de manteniento

Las tecnologías de Big Data pueden ayudar en cualquier fase del

Para mantenimiento correctivo, la analítica descriptiva hace uso de los datos proporcionados por la máquina antes y durante el fallo para responder a la pregunta de “¿qué ha pasado?”

21

imiento predictivo es unos de los campos en los que las tecnologías de Big Data han entrado de manera más sencilla en muchos sectores. Los costes de reparación y mantenimiento son uno de los factores más decisivos a

quinaria y, siendo importante la fiabilidad y la robustez, los primeros suelen constituir un factor de compra

correctivo (solución de problemas cuando aparecen) y dictivo trata de

adelantarse a la aparición de problemas para tomar las medidas necesarias con anterioridad. Los beneficios de este tipo de mantenimiento son evidentes, tanto en la durabilidad de la máquina como en el ahorro de costes: Por un lado,

s reparaciones costosas anticipándonos a los problemas, mientras que también evitamos revisiones infructuosas o redundantes. En el

a gráfica de costes según el tipo de

pueden ayudar en cualquier fase del

y diagnóstica hace uso de los datos proporcionados por la máquina antes y durante el

y “¿por qué ha

Page 22: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

- Para mantenimiento preventivo, podemos hacer uso de las 2 anteriores y, de esta forma, establecer los uprogramar en base a ellos un plan de revisiones. Esto,

Siendo realmente puristas, la analítica descriptiva y diagnóstica no necesita de grandes cantidades de datos (no hay algoritmia predictiva compleja), por lo que podría afrontarse con sistema de Business Intelligence tradicional.estadística tradicional y, más concretamente, modelos de regresión sencillos, pueden dar soporte este tipo de análisis, que tampoco requiere las capacidades de computación y de almacenamienno tener normalmente volúmenes significativos. Teniendo en cuenta lo anterior, la mayor potencialidad de soporte del Big Data está en su capacidad de qué fallo va a producirse, cuándo y, en su caso, qué hacer para evitarlo.de la algoritmia más usadacategorías:

- Algoritmos de clasificación y asociación - Algoritmos de segmentación- Algoritmos de predicción

Adicionalmente, los algoritmos de fusión a partir de patrones ya establecidos son una buena fuente de información para alimentar los modelos predictivos. Los anteriores algoritmos usan [no sólo] esencialmente técnicas de machine learning y de regresión para obtener susalgoritmos trasciende los objetivos de este documentonos proporcionará el detalle de las posibilidades de cada uno de ellossiempre deberá hacerse un análisis previo de los datos con lospara seleccionar la mejor secuencia de algoritmos para nuestros objetivos de predicción. De nuevo, la integración de fuentes de datos adicionales a la propia máquina a la que queremos hacer el mantenimiento es la verdaderaData. Sin duda, la algoritmia de analítica predictiva podrá darnos unos resultados satisfactorios, peroincluimos más información predictivo, por ejemplo:

17 https://en.wikipedia.org/wiki/Predictive_analytics

miento preventivo, podemos hacer uso de las 2 anteriores y, de esta forma, establecer los umbrales más frecuentes de fallo y programar en base a ellos un plan de revisiones. Esto,

Siendo realmente puristas, la analítica descriptiva y diagnóstica no necesita de grandes cantidades de datos (no hay algoritmia predictiva compleja), por lo que

ía afrontarse con sistema de Business Intelligence tradicional.estadística tradicional y, más concretamente, modelos de regresión sencillos, pueden dar soporte este tipo de análisis, que tampoco requiere las capacidades de computación y de almacenamiento de datos de Big Data, por no tener normalmente volúmenes significativos.

Teniendo en cuenta lo anterior, la mayor potencialidad de soporte del Big Data está en su capacidad de análisis predictivo, aquel que es capaz de predecir

e, cuándo y, en su caso, qué hacer para evitarlo.a algoritmia más usada para este tipo de análisis incluye la

Algoritmos de clasificación y asociación Algoritmos de segmentación Algoritmos de predicción

, los algoritmos de fusión a partir de patrones ya establecidos son una buena fuente de información para alimentar los modelos predictivos.

Los anteriores algoritmos usan [no sólo] esencialmente técnicas de machine learning y de regresión para obtener sus resultados. El detalle de este tipo de algoritmos trasciende los objetivos de este documento (una búsqueda simple nos proporcionará el detalle de las posibilidades de cada uno de ellossiempre deberá hacerse un análisis previo de los datos con los para seleccionar la mejor secuencia de algoritmos para nuestros objetivos de

De nuevo, la integración de fuentes de datos adicionales a la propia máquina a la que queremos hacer el mantenimiento es la verdadera potencialidad delData. Sin duda, la algoritmia de analítica predictiva mencionada anteriormente podrá darnos unos resultados satisfactorios, pero podremos enriquecerlos si incluimos más información disponible y relevante para construir nuestro modelo

https://en.wikipedia.org/wiki/Predictive_analytics–

22

miento preventivo, podemos hacer uso de las 2 anteriores mbrales más frecuentes de fallo y

Siendo realmente puristas, la analítica descriptiva y diagnóstica no necesita de grandes cantidades de datos (no hay algoritmia predictiva compleja), por lo que

ía afrontarse con sistema de Business Intelligence tradicional. La estadística tradicional y, más concretamente, modelos de regresión sencillos, pueden dar soporte este tipo de análisis, que tampoco requiere las

to de datos de Big Data, por

Teniendo en cuenta lo anterior, la mayor potencialidad de soporte del Big Data quel que es capaz de predecir

e, cuándo y, en su caso, qué hacer para evitarlo. Alguna para este tipo de análisis incluye las siguientes

, los algoritmos de fusión a partir de patrones ya establecidos son una buena fuente de información para alimentar los modelos predictivos.

Los anteriores algoritmos usan [no sólo] esencialmente técnicas de machine resultados. El detalle de este tipo de

(una búsqueda simple nos proporcionará el detalle de las posibilidades de cada uno de ellos17), pero

que se cuenta para seleccionar la mejor secuencia de algoritmos para nuestros objetivos de

De nuevo, la integración de fuentes de datos adicionales a la propia máquina a potencialidad del Big

mencionada anteriormente podremos enriquecerlos si

para construir nuestro modelo

Page 23: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

- Condiciones ambientales y meteorológicas que puedan influir en el funcionamiento de la máquina

- Datos sobre el modo de uso de la

- Comunicación con otras máquinas e integración de sus parámetros, para una analítica más completa.

04.7. Analítica y gestión energética Pese a poder haberse incluido esta temática en los epígrafes (de este documento, lo tratamos de manera específica dada gestión energética en edificios y en cualquier tipo de maquinariael ámbito de los edificios donde más se ha avanzado en este soluciones, son muchas veces extensibles a la maquinaria (consumidor de energía) y, desde luego, a los aparatos elevadores (como parte esencial de los edificios). Existe un conjunto de soluciones software, con cierto nivel de implanttrata de simular el comportamiento energético de el objeto en cuestión (edificio, construcción, maquinaria, etc.) en base a los inputs que La simulación proporciona información de posibles problemas, periodos de diferente consumo o anomalás que pueden producirse dados ciertos patrones de consumo energético. Se puede ir un paso más allá integrando las capacidades de analítica predictiva comentadas en (04.6) para tener información que nos permita la toma de decisiones en base a posibles eventos futuros previstos En este punto es de especial importancia remarcar la necesidad de una implantación elevada de sensórica y capacidades de datos para la aplicación de los algoritmos predictivos. sociales, este tipo de inputs son los que mayor volumen de información proporcionan a las soluciones de Big Dataimplantemos en este campo deberá tener las capacidades computacionales adecuadas para poder funcionar adecuadamente (por ejemplo, el software comercial EnergyPlus18 es capaz de manejar, a día de hoy, más de 270TB de información).

18 https://energyplus.net/–

Condiciones ambientales y meteorológicas que puedan influir en el funcionamiento de la máquina.

Datos sobre el modo de uso de la máquina.

Comunicación con otras máquinas e integración de sus parámetros, para una analítica más completa.

Analítica y gestión energética

Pese a poder haberse incluido esta temática en los epígrafes (lo tratamos de manera específica dada la relevencia de la

gestión energética en edificios y en cualquier tipo de maquinaria. Pese a ser en el ámbito de los edificios donde más se ha avanzado en este soluciones, son muchas veces extensibles a la maquinaria (como elemento

) y, desde luego, a los aparatos elevadores (como parte esencial de los edificios).

Existe un conjunto de soluciones software, con cierto nivel de implantde simular el comportamiento energético de el objeto en cuestión (edificio,

construcción, maquinaria, etc.) en base a los inputs que aquel les proporciona. La simulación proporciona información de posibles problemas, periodos de

consumo o anomalás que pueden producirse dados ciertos patrones de consumo energético.

Se puede ir un paso más allá integrando las capacidades de analítica predictiva para tener información que nos permita la toma de

decisiones en base a posibles eventos futuros previstos.

En este punto es de especial importancia remarcar la necesidad de una implantación elevada de sensórica y capacidades de IoT como fuentes de datos para la aplicación de los algoritmos predictivos. Y, junto con las redes sociales, este tipo de inputs son los que mayor volumen de información proporcionan a las soluciones de Big Data, por lo que cualquier solución que

os en este campo deberá tener las capacidades computacionales adecuadas para poder funcionar adecuadamente (por ejemplo, el software

es capaz de manejar, a día de hoy, más de 270TB de

23

Condiciones ambientales y meteorológicas que puedan influir en el

Comunicación con otras máquinas e integración de sus parámetros,

Pese a poder haberse incluido esta temática en los epígrafes (04.4) o (04.6) la relevencia de la

. Pese a ser en el ámbito de los edificios donde más se ha avanzado en este tipo de

como elemento ) y, desde luego, a los aparatos elevadores (como parte

Existe un conjunto de soluciones software, con cierto nivel de implantación, que de simular el comportamiento energético de el objeto en cuestión (edificio,

les proporciona. La simulación proporciona información de posibles problemas, periodos de

consumo o anomalás que pueden producirse dados ciertos patrones

Se puede ir un paso más allá integrando las capacidades de analítica predictiva para tener información que nos permita la toma de

En este punto es de especial importancia remarcar la necesidad de una IoT como fuentes de

Y, junto con las redes sociales, este tipo de inputs son los que mayor volumen de información

, por lo que cualquier solución que os en este campo deberá tener las capacidades computacionales

adecuadas para poder funcionar adecuadamente (por ejemplo, el software es capaz de manejar, a día de hoy, más de 270TB de

Page 24: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

Dado el caso de un edificio, por ejelementos del mismo puede hacer que las predicciones, además de sesgadas, sean completamente erroneas por haber obviado fuentes de datos relevantes. Esta reflexión es válida para cualquier solución de analíticaData y, pese a parecer obvia, no se debe olvidar la relevancia de la selección de fuentes para todo el proceso de generación de conocimientodatos determinan de manera uno de los ejemplos más claros donde una parcial selección de fuentes (sensores + IoT) puede llevarnos a conclusiones equivocadas

04.8. Áreas transversales aplicadas a la maquinaria de construcción y aparatos elevadores

Además de las posibles aplicaciones del puntos anteriores, existen otras posibilidades que, sin ser específicas del sector, sí que tienen potencial para maquinaria de construcción y obra pública y aparatos elevadoresellas son las siguientes:

Los datos del usuario El usuario de cualquier producto es una fuente de información muy valiosaincluso más que la del cliente (en caso de que ambos roles no sean el mismo, lo que no suele ser extraño en el sector de la aparatos elevadores). Si tenemos acceso a datos de los usuarios, podemos aplicar tecnologías de Big Data que proporcionen información relevante para acción comercial, innovación de producto o mantenimiento y soporte, entre otrusuario’ pueden ser diversos y obtenidos desde distintas fuentes, muchas de ellas mencionadas anteriormente, como por ejemplo:

- Redes sociales y registro en paginasfeedback del usuario muchas veces vienede esta información en su actividad en internet (principalmente en redes socials, pero no sólo: Wikis, foros etc. son otra fuente valiosa). Si se proporciona algún tipo de servicio (consulta, ma

19 https://hbr.org/2018/04/if-your-data

Dado el caso de un edificio, por ejemplo, una sensórica parcial sólo en ciertos elementos del mismo puede hacer que las predicciones, además de sesgadas, sean completamente erroneas por haber obviado fuentes de datos relevantes.

Esta reflexión es válida para cualquier solución de analítica predictiva en Big y, pese a parecer obvia, no se debe olvidar la relevancia de la selección

de fuentes para todo el proceso de generación de conocimiento: datos determinan de manera inequívoca el resultado. La gestión energética es

de los ejemplos más claros donde una parcial selección de fuentes (sensores + IoT) puede llevarnos a conclusiones equivocadas19.

Áreas transversales aplicadas a la maquinaria de construcción y aparatos elevadores

Además de las posibles aplicaciones del Big Data que hemos visto en los puntos anteriores, existen otras posibilidades que, sin ser específicas del sector, sí que tienen potencial para ser aprovechadas en el ámbito de la maquinaria de construcción y obra pública y aparatos elevadores

El usuario de cualquier producto es una fuente de información muy valiosaincluso más que la del cliente (en caso de que ambos roles no sean el mismo, lo que no suele ser extraño en el sector de la maquinaria de construcción y

Si tenemos acceso a datos de los usuarios, podemos aplicar tecnologías de proporcionen información relevante para acción comercial,

innovación de producto o mantenimiento y soporte, entre otros. Estos ‘datos del usuario’ pueden ser diversos y obtenidos desde distintas fuentes, muchas de ellas mencionadas anteriormente, como por ejemplo:

Redes sociales y registro en paginas web del fabricante: La opinión y el del usuario muchas veces viene provocada por la compartición

de esta información en su actividad en internet (principalmente en redes socials, pero no sólo: Wikis, foros etc. son otra fuente valiosa). Si se proporciona algún tipo de servicio (consulta, mantenimiento, etc.) vía

data-is-bad-your-machine-learning-tools-are-useless–

24

emplo, una sensórica parcial sólo en ciertos elementos del mismo puede hacer que las predicciones, además de sesgadas, sean completamente erroneas por haber obviado fuentes de datos relevantes.

predictiva en Big y, pese a parecer obvia, no se debe olvidar la relevancia de la selección

: Las fuentes de . La gestión energética es

de los ejemplos más claros donde una parcial selección de fuentes

Áreas transversales aplicadas a la maquinaria de

Big Data que hemos visto en los puntos anteriores, existen otras posibilidades que, sin ser específicas del

ser aprovechadas en el ámbito de la maquinaria de construcción y obra pública y aparatos elevadores. Algunas de

El usuario de cualquier producto es una fuente de información muy valiosa, incluso más que la del cliente (en caso de que ambos roles no sean el mismo,

maquinaria de construcción y

Si tenemos acceso a datos de los usuarios, podemos aplicar tecnologías de proporcionen información relevante para acción comercial,

os. Estos ‘datos del usuario’ pueden ser diversos y obtenidos desde distintas fuentes, muchas de

: La opinión y el provocada por la compartición

de esta información en su actividad en internet (principalmente en redes socials, pero no sólo: Wikis, foros etc. son otra fuente valiosa). Si se

ntenimiento, etc.) vía

Page 25: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

registro en la web del fabricante, es una opción valiosa para fomentar y capturar la generación de información por parte del usuario.

- Sensores en la máquinaya que no sólo nos puede dar por parte del usuario (lo que puede ayudar a la innovación del producto, esencialmente), sino que tiempo real siempre que tengamos un interfaz bidirecmodo de utilización de la máquina también puede ser utilizado para el mantenimiento predictivo.

- Feedback proporcionado por otros medios

(p. ej., aplicaciones móviles adinformación del usopara obtener informaciónincentivado para que

Con las anteriores fuenes de datostecnologías de Big Data para obtener un coAlgunos ejemplos:

- Análisis del sentimiento y la opiniónmachine learning y entrenamiento de la información recibida se podrá analizar el sentimiento u opinión que subyace en cada feedback del usuario. Ordenar la información textual del usuario en una estructura de ontología nos permitirá explotar esta información además mediante técnicas de análisis semántico.

- Segmentación y perfilado de usuaripodemos segmentar a nuestros usuario mediante diferentes técnicas de clustering, fusión y clasificación de información (sea cual sea el input, muchas veces información desestructurada como las redes sociales, o más ordenada, como la que nos puedan dar los sensores de las máquinas). El perfilado del usuario según ciertos parámetros definidos (y dependientes de la información que tengamos como input) podrá ser un resultado adicional.

Big Data y realidad mixta (virtual y aume Como se comentó en el punto (proceso de Big Data

registro en la web del fabricante, es una opción valiosa para fomentar y capturar la generación de información por parte del usuario.

Sensores en la máquina: Esta fuente de datos tiene enorme potencial, nos puede dar información acerca de los patrones de uso

por parte del usuario (lo que puede ayudar a la innovación del producto, esencialmente), sino que puede permitirnos comunicarnos con él en tiempo real siempre que tengamos un interfaz bidireccional. Además, el

de utilización de la máquina también puede ser utilizado para el mantenimiento predictivo.

Feedback proporcionado por otros medios: Cualquier otro medio digital (p. ej., aplicaciones móviles ad-hoc) por el que el usuario pueda ofrecer información del uso de la máquina es una potencial entrada de datos para obtener información, más aún cuando esté desarrollado e incentivado para que se proporcione información del uso de la máquina.

Con las anteriores fuenes de datos se pueden aplicar diferentes técnicasde Big Data para obtener un conocimiento mayor de los usuarios.

Análisis del sentimiento y la opinión: Mediante diferentes técnicas de machine learning y entrenamiento de la información recibida se podrá

miento u opinión que subyace en cada feedback del usuario. Ordenar la información textual del usuario en una estructura de ontología nos permitirá explotar esta información además mediante técnicas de análisis semántico.

Segmentación y perfilado de usuarios: Adicionalmente a lo anterior, podemos segmentar a nuestros usuario mediante diferentes técnicas de clustering, fusión y clasificación de información (sea cual sea el input, muchas veces información desestructurada como las redes sociales, o

a, como la que nos puedan dar los sensores de las máquinas). El perfilado del usuario según ciertos parámetros definidos (y dependientes de la información que tengamos como input) podrá ser un resultado adicional.

Big Data y realidad mixta (virtual y aumentada)

Como se comentó en el punto (02.2), la visualización es un paso ya que, sin tener un contenido en sí mismo de

25

registro en la web del fabricante, es una opción valiosa para fomentar y capturar la generación de información por parte del usuario.

: Esta fuente de datos tiene enorme potencial, información acerca de los patrones de uso

por parte del usuario (lo que puede ayudar a la innovación del producto, puede permitirnos comunicarnos con él en

cional. Además, el de utilización de la máquina también puede ser utilizado para el

Cualquier otro medio digital por el que el usuario pueda ofrecer

potencial entrada de datos , más aún cuando esté desarrollado e

se proporcione información del uso de la máquina.

se pueden aplicar diferentes técnicas y nocimiento mayor de los usuarios.

diferentes técnicas de machine learning y entrenamiento de la información recibida se podrá

miento u opinión que subyace en cada feedback del usuario. Ordenar la información textual del usuario en una estructura de ontología nos permitirá explotar esta información además mediante

Adicionalmente a lo anterior, podemos segmentar a nuestros usuario mediante diferentes técnicas de clustering, fusión y clasificación de información (sea cual sea el input, muchas veces información desestructurada como las redes sociales, o

a, como la que nos puedan dar los sensores de las máquinas). El perfilado del usuario según ciertos parámetros definidos (y dependientes de la información que tengamos como input) podrá ser un

, la visualización es un paso clave en el sin tener un contenido en sí mismo de

Page 26: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

descubirmiento de información o de generación de conocimiento, sí que lo favorece, al permitir al destin Una de las ventajas que la realidad mixtacapacidad explicativa (por la inmersión en una realidad diferente) y de interactividad (por permitir relacionarnos con esa realidad másteclado y un ratón). La industria de la construcción está empezando a utilizar estas capacidades para facilitar tareas de reparaciónocultos mediante modelizado 3D y visualización vía realidad aumenmarketing (visitas virtuales), diseño (las capacidades 3D de los software BIM pueden explotarse mediante interactividad con realidad mixta), etc. Diversos estudios 21 22 han marcadoasentarse una solución de realidadque son: Localización (capacidad para integrar de manera explicativa objetos virtuales en una localización real), interfaz de usuario natural (intuitivo para su uso en entornos no ideales y por pertecnología), computación en la nube (tratamiento y acceso a la información de manera efectiva y fiablemóviles (para garantizar un interfaz conocido, poco invasivo y usable en las condiciones habituales del sector de la construcción El enlace con el Big Datainformación que puede llegar a manejar una solución de Big Data en este sector es enorme. Por tanto, sólo con una visualización e inel usuario podrá asimilar la información proporcionada por el proceso de Big Data. Esto requiere nuevas plataformas interactivas y metodologías para visualizar conjuntos de datos relacionados con la construcciónproporcionan las tecnologías de realidad mixtamejor e interpretar las complicadas estructuras y la interconexión dentro de Big Data + BIMtodo) y del resto del ciclo de vid

20 https://es.wikipedia.org/wiki/Realidad_mixta21 H.-L. Chi, S.-C. Kang, X. Wang, Reseaengineering, and construction, Autom. Construct. 33 (2013) 11622 S. Rankohi, L. Waugh, Review and analysis of a(2013) 1 18.

descubirmiento de información o de generación de conocimiento, sí que lo al permitir al destinatario de la información.

Una de las ventajas que la realidad mixta20 permite al usuario es su gran capacidad explicativa (por la inmersión en una realidad diferente) y de interactividad (por permitir relacionarnos con esa realidad más

La industria de la construcción está empezando a utilizar estas capacidades facilitar tareas de reparación (identificación de piezas y componentes

ocultos mediante modelizado 3D y visualización vía realidad aumenmarketing (visitas virtuales), diseño (las capacidades 3D de los software BIM pueden explotarse mediante interactividad con realidad mixta), etc.

han marcado los pilares sobre los que debería de asentarse una solución de realidad mixta para la industria de la construcción

Localización (capacidad para integrar de manera explicativa objetos virtuales en una localización real), interfaz de usuario natural (intuitivo para su uso en entornos no ideales y por personas no especialistas en

), computación en la nube (para proporcionar almacenamiento, tratamiento y acceso a la información de manera efectiva y fiable

para garantizar un interfaz conocido, poco invasivo y usable en las condiciones habituales del sector de la construcción).

El enlace con el Big Data es evidente: La complejidad y cantidad de información que puede llegar a manejar una solución de Big Data en este sector es enorme. Por tanto, sólo con una visualización e interactividad efectiva el usuario podrá asimilar la información proporcionada por el proceso de Big

Esto requiere nuevas plataformas interactivas y metodologías para visualizar conjuntos de datos relacionados con la construcción, como los que

onan las tecnologías de realidad mixta. El objetivo es comprender mejor e interpretar las complicadas estructuras y la interconexión

+ BIM para la exploración y optimización del diseñotodo) y del resto del ciclo de vida de la [maquinaria de] construcción.

https://es.wikipedia.org/wiki/Realidad_mixta–C. Kang, X. Wang, Research trends and opportunities of augmented reality applications in

construction, Autom. Construct. 33 (2013) 116 122. S. Rankohi, L. Waugh, Review and analysis of augmented reality literature for construction industry, Visual. Eng. 1 (1)

26

descubirmiento de información o de generación de conocimiento, sí que lo

permite al usuario es su gran capacidad explicativa (por la inmersión en una realidad diferente) y de

allá de con un

La industria de la construcción está empezando a utilizar estas capacidades (identificación de piezas y componentes

ocultos mediante modelizado 3D y visualización vía realidad aumentada), marketing (visitas virtuales), diseño (las capacidades 3D de los software BIM pueden explotarse mediante interactividad con realidad mixta), etc.

los pilares sobre los que debería de mixta para la industria de la construcción,

Localización (capacidad para integrar de manera explicativa objetos virtuales en una localización real), interfaz de usuario natural (especialmente

sonas no especialistas en para proporcionar almacenamiento,

tratamiento y acceso a la información de manera efectiva y fiable) y dispositivos para garantizar un interfaz conocido, poco invasivo y usable en las

es evidente: La complejidad y cantidad de información que puede llegar a manejar una solución de Big Data en este

teractividad efectiva el usuario podrá asimilar la información proporcionada por el proceso de Big

Esto requiere nuevas plataformas interactivas y metodologías para , como los que

. El objetivo es comprender mejor e interpretar las complicadas estructuras y la interconexión existentes

para la exploración y optimización del diseño (sobre a de la [maquinaria de] construcción.

augmented reality applications in architecture,

construction industry, Visual. Eng. 1 (1)

Page 27: Guía del uso de las tecnologías Big Data para la ... · cial en la generación de datos ... - Bases de datos relacionales vs. NoSQL ... de realizarse directamente sobre la base

05. Conclusiones La industria y el sector de la construcción y sus son la maquinaria de construcción, obra pública y aparatos elevadores)generan una cantidad de datos enormemediante la progresiva adopción de metodologías y herramientas BIM tiene una continuidad clara en la incorporación de tecnologías de Big Data para sacar valor a esa gran cantidad de datos. Cualquier iniciativa de desarroo en cualquier otro) debe comenzar por establecerse un objetivo claro y concreto de obtención de información o conocimiento a partir de los datos disponibles (04.2), así como de conocer la estructura básica de un proceso de Big Data (02.2) y algunas de sus principales técni A partir de ahí, hemos visto varias opciones y conjuntos de actividades con potencial de aplicación (maquinaria de construcción y de aparatos elevadores tiene un alto potencial de mejora mediante la aplicación de estas tecnologías, en conjunción con un progresivo proceso de digitalización de sus actividades.

lusiones

La industria y el sector de la construcción y sus subsectores adjuntos son la maquinaria de construcción, obra pública y aparatos elevadores)generan una cantidad de datos enorme. Toda la digitalización comenzada mediante la progresiva adopción de metodologías y herramientas BIM tiene una continuidad clara en la incorporación de tecnologías de Big Data para

cantidad de datos.

Cualquier iniciativa de desarrollar o incorporar estas tecnologías o en cualquier otro) debe comenzar por establecerse un objetivo claro y concreto de obtención de información o conocimiento a partir de los datos

), así como de conocer la estructura básica de un proceso de ) y algunas de sus principales técnicas (03).

A partir de ahí, hemos visto varias opciones y conjuntos de actividades con de aplicación (04), lo que nos permite concluir que el sector de la

maquinaria de construcción y de aparatos elevadores tiene un alto potencial de mejora mediante la aplicación de estas tecnologías, en conjunción con un

o proceso de digitalización de sus actividades.

27

subsectores adjuntos (como son la maquinaria de construcción, obra pública y aparatos elevadores)

. Toda la digitalización comenzada mediante la progresiva adopción de metodologías y herramientas BIM tiene una continuidad clara en la incorporación de tecnologías de Big Data para

(en este sector o en cualquier otro) debe comenzar por establecerse un objetivo claro y concreto de obtención de información o conocimiento a partir de los datos

), así como de conocer la estructura básica de un proceso de

A partir de ahí, hemos visto varias opciones y conjuntos de actividades con ), lo que nos permite concluir que el sector de la

maquinaria de construcción y de aparatos elevadores tiene un alto potencial de mejora mediante la aplicación de estas tecnologías, en conjunción con un