Entrar al aula
×

El Big Data y las Smart Cities

El big data se está usando también para mejorar aspectos de nuestras ciudades y países. 

Análisis de datos en las ciudades

La tecnología permite optimizar los flujos de tráfico basándose en datos que llegan en tiempo real de las cámaras de tráfico, de las redes sociales y del tiempo meteorológico. 

Un número creciente de ciudades están embarcadas en proyectos de Smart Cities, donde la infraestructura de transportes y los procesos de suministros trabajan colaborativamente.  

Algunas de las áreas susceptibles de mejora gracias al uso de big data serían las siguientes:

Seguridad ciudadana
Se podría mejorar la eficacia de las actuaciones de los cuerpos de seguridad a través de la correlación de toda la información procedente de los distintos sistemas instalados en la ciudad: desde cámaras de video vigilancia, geolocalización de coches de policía y bomberos, sensores de movilidad o de alertas, detectores de humo y fuego, etc.
Movilidad urbana
Se podría conseguir, por ejemplo, anticiparse a los atascos y tomar decisiones en tiempo real para redirigir la ruta de autobuses, o interactuar con la red de semáforos, e informar al ciudadano de la situación del tráfico e indicarle las rutas alternativas óptimas; todo esto mediante la captura y gestión de datos procedentes de:
  • Cámaras repartidas por toda la ciudad.
  • Sensores instalados en autobuses.
  • Información meteorológica.
  • Datos originados en las redes sociales (como por ejemplo la organización de una manifestación a través de Twitter).
Gestión del agua
A través del análisis de los datos ofrecidos por una red de sensores de presión, PH y turbidez del agua ubicados en los sistemas de abastecimiento y saneamiento, así como cámaras de vigilancia de plantas potabilizadoras, sería posible detectar fugas y controlar la calidad del agua en todo momento.
Energía y eficiencia energética
Gracias a los datos procedentes de contadores inteligentes en las viviendas, datos procedentes de plataformas open dataEs una filosofía y práctica que persigue que determinados tipos de datos estén disponibles de forma libre para todo el mundo, sin restricciones de derechos de autor, de patentes o de otros mecanismos de control.? y previsiones meteorológicas (que permitieran detectar una inminente ola de calor, por ejemplo), sería posible tener una operación más eficiente de la red eléctrica.
Las compañías pudieran ajustar la producción a la demanda en tiempo real (punto clave de las smart grids o redes eléctricas inteligentes).
Residuos urbanos
Mediante sensores ubicados en los contenedores que envían datos relativos a su capacidad en cada momento, se podrían definir las rutas optimas de recogida de basura en tiempo real.
Y combinando la información de dichos sensores con otros datos, procedentes por ejemplo de ciudadanos que pudieran estar expresando sus quejas sobre la suciedad de algunas calles a través de redes sociales.
Análisis de sentimiento del ciudadano
Posibilidad de conocer la opinión de los ciudadanos y turistas sobre la ciudad a través del análisis en tiempo real de datos procedentes de distintas redes sociales, web del ayuntamiento, call centers, etc. para conocer cuáles son los aspectos prioritarios que están demandando y poder responder a peticiones de forma inmediata.

Casos de uso de Smart Cities

Coche autónomo de google

El análisis de big data está ayudando a máquinas y dispositivos a ser más inteligentes y autónomos. Un ejemplo que ya es una realidad, es el coche autopilotado de Google.

Los coches que usan para el proyecto están equipados con cámaras, GPS, conexión a internet, y un abanico de procesadores y sensores que permiten al vehículo circular de forma segura por la vía pública sin necesidad de intervención humana.

También se usan herramientas de análisis de big data para optimizar las redes de energía a partir de datos de los medidores inteligentes.

El tráfico a tiempo real también es información a la que tienen acceso estos vehículos, que disponen de dos estilos de conducción. Uno de ellos es más cauto y en una situación de duda cedería el paso a otros coches, mientras que el segundo es más agresivo y está programado para salir primero.

El director de producto de Google ha dicho que en 5 años la tecnología estará más que lista y probada, pero que el problema del plazo de su implantación está en los aspectos legales.

Tráfico y Big Data

Investigadores de la Universidad de Granada (UGR) han desarrollado un nuevo sistema informático, basado en técnicas de big data, que permite predecir cuándo se va a producir un atasco de tráfico y ayuda a prevenirlo. Este proyecto se denomina 'Predicción del Estado del Tráfico” o PETRA. 

El objetivo del proyecto PETRA ha sido crear un sistema que permita ofrecer información completa y en tiempo real del tráfico en carreteras interurbanas, para poder predecir la densidad del tráfico en diferentes marcos temporales, y ofrecer esa información como datos abiertos para su consumo por parte de aplicaciones para el móvil.

Actualmente existen diferentes medios que permiten conocer, en tiempo real, el estado de ciertos tramos de las carreteras, como por ejemplo las cámaras de seguridad, o los aforadores. 

Para el proyecto PETRA, los investigadores desplegaron una serie de dispositivos en distintas zonas urbanas e interurbanas de Granada, Málaga y Almería, que recogían información de los dispositivos móviles (mediante Bluetooth) para realizar seguimiento de los vehículos que pasaban cerca de esos nodos, almacenando su identificador y una marca de tiempo.

Los resultados de ese prototipo fueron una serie de mediciones, tales como paso de vehículos por días, horas, y velocidades medias, en un área limitada que demostraban la viabilidad de la propuesta.

Predicción a partir de los datos: Este proyecto ha permitido obtener datos nuevos que puedan compararse y ser analizados con otros medios de obtención de datos, y realizar análisis de predicción sobre ellos. 

El análisis de los datos ha servido para proporcionar información relativa a predicción de atascos, uso de las carreteras, velocidades medias o información geolocalizada sobre el estado de las carreteras. 

Asimismo, se ha propuesto la extensión de los sistemas de difusión de los datos obtenidos usando servicios web, creando una serie de datos de acceso público para que futuros investigadores puedan realizar sus análisis, facilitando así el Open Data.

Se puede llevar el análisis un paso más allá y mirar con más detalle los movimientos diarios de masas: de norte a sur de una ciudad, de este a oeste en determinada región... y con más detalle, el movimiento de las personas de una misma empresa que trabajan en la misma sede... ¿se les podría proponer compartir vehículo? Esta línea de trabajo daría mucho juego...

Con este proyecto, se ha demostrado que es posible ahorrar tiempo, dinero y emisiones de CO2 si se controlan adecuadamente los flujos de tráfico, los cruces, los semáforos, las rotondas, los aparcamientos y el alumbrado nocturno, por citar sólo los ejemplos más evidentes. 

En este proyecto cobraban especial relevancia: la alta disponibilidad, la seguridad de la información, la capacidad de cómputo, las posibilidades de Big Data y de Open Data.

Dinámicas de turismo en la ciudad de Madrid
Bajo este nombre, el Ayuntamiento de Madrid analizó el comportamiento de los turistas en cuanto a su actividad comercial. 
Entre los muchos resultados, el estudio sirvió para cuantificar el impacto económico de eventos concretos en diversas zonas de la ciudad como el Orgullo Gay, una final de la copa del rey, o determinados congresos de gran afluencia en el recinto ferial.

En alguno de estos eventos se detectó que el gasto comercial aumentó un 24% respecto a la misma semana del mes anterior. 

Además, se conocen otros datos interesantes como los turistas que más gastan, en qué gastan, por dónde se mueven, etc. Lo cual puede dirigir decisiones en cuanto a incrementar los servicios públicos de transporte entre determinadas zonas, la seguridad ciudadana, los servicios de limpieza, etc...
Big Data y la energía eólica

8 millones: El Centro de Simulación Climática de la NASA procesa cada día 8 millones de observaciones meteorológicas. El análisis de estos datos a gran escala está facilitando el conocimiento y la comprensión de las pautas climáticas del planeta y de diferentes localizaciones como nunca antes había sido posible.

Gracias a las soluciones de Big Data, decidir la mejor ubicación de un parque eólico, por ejemplo, hoy incluye la consideración de los datos de la más diversa procedencia, desde predicciones meteorológicas a imágenes de satélite, datos geoespaciales o mapas de deforestación. El análisis de un parque eólico, que antes tardaba semanas, hoy se puede hacer en menos de una hora.

Hasta ahora, y en general, los parques eólicos han funcionado como unidades autónomas. Con una gestión optimizada, las turbinas pueden operar como un conjunto interconectado, en lugar de competir por viento. Del mismo modo que un paciente se comunica con el médico, cada vez las turbinas están más capacitadas para comunicarse entre ellas y con los fabricantes, lo que supone una reducción de fallos inesperadas y un incremento de la producción.

Idealmente, la reparación debe hacerse a distancia para evitar la parada de la turbina y la pérdida de productividad que eso supone. Es por eso que el desarrollo de modelos de diagnóstico remoto es clave, que permite prever las necesidades técnicas de una turbina y repararla antes de que se pare.

Los mismos sistemas de diagnóstico permiten recoger feedback después de una intervención técnica y otras informaciones de utilidad para los diseñadores y fabricantes, que tienen la posibilidad de escuchar “la voz de las turbinas” y mejorarlas continuamente.

 

Con el tiempo, la información resultante del análisis de datos no sólo estará disponible para operadores de parques eólicos y fabricantes de turbinas, si no que será también beneficiosa para muchos otros agentes, desde personal técnico a estudiantes e inversores.

Los retos ahora son la comunicación y la colaboración. Si los diferentes sectores y agentes se pusieran de acuerdo para poner sus datos en común y compartir el análisis, el resultado sería mucho más potente.

En este campo tenemos el caso de éxito de Aristóteles.

Aristóteles y las energías renovables

Kaiserwetter es una empresa alemana que ha diseñado un sistema de Big Data basado en el internet de las cosas, llamado Aristóteles.

Aristóteles combina el análisis del Big Data, el internet de las cosas y una instalación digital en la nube.

Internet de las cosas no sólo permite la agregación de datos desde prácticamente cualquier lugar del mundo, sino también realizar análisis de las desviaciones a partir de los datos esperables para determinadas condiciones meteorológicas; se pueden analizar los datos de rendimiento y los datos financieros de cada unidad de producción (cada molino de viento) a través de distintos niveles de agregación de datos.

La idea es que las empresas de energía, los inversores, los bancos y las aseguradoras podrán reemplazar prácticamente las funciones de los departamentos de Controlling (simplificando así sus estructuras empresariales) y concentrarse en su negocio; es decir que los directivos pueden consultar toda la información en las pantallas de sus ordenadores de manera compacta, transparente y en tiempo real.

Esta empresa dice literalmente que «la transición energética constituye el mayor proyecto informático de todos los tiempos, aparte de que abre puertas a nuevas áreas de negocio”. 

Reciclaje

La idea es analizar la dinámica del reciclaje para mejorar la toma de decisiones y alcanzar los objetivos de planes estratégicos en este sentido.

La Federación Española de la Recuperación y el Reciclaje se preocupa por el medio ambiente a través del reciclaje de paquetes de plástico, botes, cajas, tetra bricks y papel, y quería mejorar los ratos de contribución al sistema de reciclaje.

Esta organización necesitaba proveerse de mayor conocimiento e inteligencia para el soporte de sus decisiones, buscando identificar y analizar las palancas o motivadores, que producen efectos positivos y medibles en el comportamiento de los ciudadanos y de la Administración de cara al reciclaje. 

La idea es responder a preguntas o insights críticos, por ejemplo:

  • ¿Cuáles son las variables que afectan en los hábitos y comportamientos hacia el reciclaje?
  • ¿Cuál es el impacto de estas acciones?
  • ¿Cuál es el potencial de reciclaje de cara área geográfica?

Se aplican técnicas de text mining para escuchar y enriquecer conversaciones en las redes sociales, llevar a cabo análisis de sentimiento en tiempo real, y monitorizar el impacto de las campañas públicas que se llevan a cabo.

El resultado final es la generación continua de conocimiento en este sentido.

Hay campo de trabajo para especializar el análisis del reciclaje en función del tipo de residuos, como los neumáticos, los líquidos nocivos de desperdicio de los vehículos, las baterías, etc...

También Ecoembes (La organización que cuida del medio ambiente a través del reciclaje y el ecodiseño de los envases en España), ha dicho que está basando su nuevo plan estratégico en tecnologías de Big data, en particular poniendo en marcha un nuevo estilo de comunicación, en el que el entorno digital es clave y ofrece al ciudadano información permanentemente actualizada y adaptada a sus necesidades, intereses, perfil, y forma de consumo de información.

Prevención del delito

El procesamiento de grandes volúmenes de datos se ha convertido en una herramienta para predecir cuándo y dónde tendrá lugar un delito. Así, la policía envía patrullas a la zona para disuadir a los potenciales delincuentes de cometerlo.

Policía en EEUU

La Policía de Memphis (EE UU) afirma que gracias al big data ha reducido los delitos serios en un 30%, con un descenso del 15% en sucesos violentos. En Richmond, la capital del estado de Virginia, la policía logró una caída de casi el 30% en crímenes violentos y homicidios, para una determinada área y en un periodo de 12 meses. 

También en Estados Unidos, la ciudad de Reading, en Pensilvania, registró una disminución de delitos tras instalar un software predictivo. En 14 meses los robos se redujeron un 23%, pese a que la policía contó con menos efectivos. La clave estuvo en el algoritmo de PredPol, una startup californiana que usa big data para predecir cómo se comportará la delincuencia.

El modelo tiene en cuenta la predicción de delitos y los recursos de la policía, para optimizar la ruta de las patrullas y cubrir los espacios potencialmente más problemáticos. 

Las predicciones se hacen para las próximas diez o doce horas. La información que se usa son los datos históricos: qué tipo de delito es, dónde ocurrió y cuándo. También hay que combinar el contenido de informes policiales, a veces escritos a mano, con información meteorológica (porque la criminalidad varía si llueve o nieva) y con ciertas coyunturas, como si es día de pagos (porque en Estados Unidos muchas empresas aún utilizan cheques).

También se trabaja con listas de sospechosos. En Miami Bay reducen las listas de sospechosos o incluyen algunos nuevos que ellos no habían pensado.

 

No es un "Minority Report", no se trata de predecir quién va a cometer un crimen o se va a convertir en un criminal: El algoritmo no incluye información personal, como quiénes son los delincuentes, su aspecto, su raza o su condición socioeconómica.

El software nunca deja de aprender, nunca descansa, por ejemplo si la policía está teniendo impacto en el índice de crimen de un área y este empieza a subir en otra, el algoritmo adaptará sus predicciones para afrontar los nuevos patrones.

Ejemplos de aplicación del IoT y las Smart Cities