细化搜索
结果 1-7 的 7
Seguimiento de la calidad del agua mediante imágenes de satélite 全文
2023
Alonso Peleato, Eduardo | Hernández Viñas, Montserrat | Martínez de Icaya Gómez, Elvira
Este trabajo pretende realizar un seguimiento, a través de imágenes de satélite, de la calidad del agua del Mar Menor, la laguna salada más grande de Europa, situada en la Región de Murcia. El deterioro que han sufrido muchos de estos cuerpos de agua en los últimos años se debe principalmente al vertido de abonos procedentes de tierras cercanas, que producen un enriquecimiento de nutrientes en el ecosistema acuático (eutrofización), provocando un crecimiento rápido de algas y otras plantas que cubren la superficie del agua. Como consecuencia, la luz no llega hasta las capas más profundas y proliferan microorganismos que se alimentan de la materia muerta y consumen el oxígeno que otras especies necesitan para sobrevivir, produciéndose un desastre medioambiental. Desde el punto de vista de la teledetección, nos centraremos en realizar un monitoreo de las concentraciones de clorofila A. Para ello, utilizaremos imágenes multibanda de los satélites Sentinel-2, entrando en detalle en su obtención y procesado. A partir de ellas, calcularemos los índices RI (Red tide Index), Se2WaQ, MPHBI (Maximum Peak Height Bloom Index) y Ulyssys, que nos darán información sobre la cantidad de clorofila concentrada en las aguas. Tras calcular los índices propuestos, pasaremos al análisis y la obtención de medidas cuantitativas, lo que supone clasificar los índices y compararlos entre ellos. Además de esto, validaremos los resultados obtenidos con las medidas in-situ de la zona. A lo largo del estudio, haremos uso de las herramientas SIG más relevantes en la actualidad, como GDAL y QGis, aparte de otras utilidades desarrolladas específicamente para este trabajo con el objetivo de calcular los índices de forma sencilla y ordenada. Este trabajo subraya la importancia de utilizar la teledetección y los índices de calidad del agua para la monitorización de cuerpos de agua como el Mar Menor. Las conclusiones del trabajo están en línea con la información sobre el Mar Menor que se puede encontrar actualmente, y su precaria situación. Esperamos que estas contribuyan a mejorar la comprensión de este problema y esto contribuya en una mejora en su conservación. Abstract: Through satellite images, this work aims to monitor the water quality of the Mar Menor, the largest saltwater lagoon in Europe, located in the Region of Murcia. The deterioration that many of these bodies of water have suffered in recent years is mainly due to the dumping of fertilisers from nearby land, which produces an enrichment of nutrients in the aquatic ecosystem (eutrophication), causing rapid growth of algae and other plants that cover the surface of the water. Consequently, light does not reach the deeper layers, and micro-organisms proliferate, feeding on the dead matter and consuming the oxygen that other species need to survive, resulting in an environmental disaster. From a remote sensing point of view, we will focus on monitoring chlorophyll A concentrations. We will use multi-band images from the Sentinel-2 satellites, detailing how they are obtained and processed. From them, we will calculate the RI (Red tide Index), Se2WaQ, MPHBI (Maximum Peak Height Bloom Index) and Ulyssys indices, which will give us information on the amount of chlorophyll concentrated in the waters. After calculating the proposed indices, we will analyse and obtain quantitative measurements, which involve classifying and comparing them. In addition, we will validate the results obtained with in-situ measurements in the area. Throughout the study, we will use the most relevant GIS tools currently available, such as GDAL and QGis, as well as other utilities explicitly developed for this work, to calculate the indices simply and orderly. This work underlines the importance of using remote sensing and water quality indices for monitoring water bodies such as the Mar Menor. The conclusions of the paper are in line with the information on the Mar Menor that is currently available and its precarious situation. We hope that these will contribute to a better understanding of this problem and lead to an improvement in its conservation.
显示更多 [+] 显示较少 [-]Sistema integrado y distribuido para el análisis de agua en cultivos hidropónicos – CROP.AI 全文
2024
García Salgado, Iván | García Alcántara, Vicente A.
Este Proyecto de Fin de Grado desarrolla un sistema IoT integral y modular diseñado para optimizar el proceso de riego en una variedad de cultivos, adaptándose tanto a métodos hidropónicos como a la agricultura tradicional. El objetivo principal es ofrecer una solución que mejore significativamente la eficiencia en el uso del agua y la energía, y que además sea fácil de integrar y operar en diferentes entornos agrícolas y acuáticos. Esta propuesta surge como respuesta a la necesidad creciente de prácticas agrícolas más sostenibles y eficientes, en un contexto donde el cambio climático y la escasez de recursos naturales son desafíos cada vez más apremiantes. El sistema utiliza un dispositivo IoT basado en el entorno de desarrollo ESP-IDF y los microcontroladores ESP32, que proporcionan la base tecnológica para un prototipo autónomo y configurable. Gracias a ello, este dispositivo puede analizar e identificar datos críticos del estado del agua. Su capacidad de configuración, tanto en componentes tecnológicos como físicos, permite su instalación en una diversidad de escenarios, incluyendo piscinas, parques y floristerías, así como en cultivos interiores y exteriores. Esta flexibilidad asegura que el sistema pueda ser adaptado a las condiciones específicas y necesidades de cada tipo de cultivo, garantizando así una solución versátil y eficiente para diversas aplicaciones. El desarrollo del producto incluye un sistema de monitoreo que se integra con facilidad en infraestructuras de riego existentes, empleando tecnologías y sensores IoT para el análisis en tiempo real mediante el sistema operativo freeRTOS. Entre los sensores utilizados se incluyen un sensor de oxígeno disuelto, un sensor de temperatura, un sensor de sólidos y turbidez, y un sensor de pH, los cuales son cruciales para obtener mediciones precisas del estado del agua. Además, el sistema incorpora otros sensores y actuadores para asegurar el correcto funcionamiento, como un sensor de nivel de agua para evitar lecturas en vacío, un purgador automático de aire y una válvula de bola para asegurar el flujo en áreas con baja presión o escaso caudal de agua. Todos estos sensores están dispuestos en un formato vertical a lo largo de la tubería, con su posición meticulosamente estudiada para optimizar su función. Para facilitar la configurabilidad y adaptabilidad del sistema al entorno, se ha diseñado una interfaz de usuario intuitiva alojada en un servidor web. Los usuarios pueden recibir alertas remotas a través de Telegram, permitiendo a los suscriptores del analizador de agua tomar decisiones informadas o investigar los últimos datos de riego. Esta combinación de tecnologías asegura que los usuarios puedan mantenerse informados y tomar decisiones basadas en datos precisos y actualizados, mejorando así la eficiencia general del sistema de riego. El sistema es completamente escalable, desde su fabricación hasta su reciclaje y desarrollo. Los programadores pueden probar y actualizar remotamente toda la red física de Crop.AI gracias a la tecnología de GitHub Actions y, a la fabricación del dispositivo, que garantiza la homogeneidad a través de los planos detallados de diseño hardware realizados con KiCad y fabricados con JLCPCB. Esta capacidad de actualización y mantenimiento remoto asegura que el sistema permanezca a la vanguardia de la tecnología, ofreciendo siempre un rendimiento óptimo. La sostenibilidad es un pilar fundamental de este proyecto. Al reducir el consumo de agua y energía, Crop.AI no solo ayuda a mejorar la eficiencia de los cultivos, sino que también promueve prácticas agrícolas más responsables y respetuosas con el medio ambiente. Este enfoque sostenible es esencial en un mundo donde la conservación de los recursos naturales es vital para garantizar la seguridad alimentaria y la salud del planeta a largo plazo. La evaluación del sistema se lleva a cabo a través de pruebas piloto en diversos tipos de cultivos y condiciones ambientales, confirmando su efectividad en la mejora de la salud de los cultivos. Los resultados demuestran que el sistema no solo es funcional y eficiente, sino que también fomenta la sostenibilidad y la conservación de recursos en el sector agrícola. De esta manera, Crop.AI contribuye a la disminución del gasto descontrolado de agua que se genera en la producción agrícola. Este proyecto amplía la literatura existente sobre tecnologías sostenibles en la agricultura y presenta una solución innovadora y escalable para afrontar los desafíos del manejo eficiente del agua en contextos agrícolas y urbanos, destacando su aplicabilidad y relevancia en el actual panorama de sostenibilidad. Con Crop.AI, se demuestra cómo la integración de tecnologías avanzadas en la agricultura puede llevar a una gestión más eficiente de los recursos, promoviendo un futuro más sostenible y equitativo. Abstract: This Final Degree Project develops a comprehensive and modular IoT system designed to optimise the irrigation process in a variety of crops, adapting to both hydroponic methods and traditional agriculture. The main objective is to offer a solution that significantly improves the efficiency of water and energy use, and that is also easy to integrate and operate in different agricultural and aquatic environments. This proposal comes in response to the growing need for more sustainable and efficient agricultural practices, in a context where climate change and scarcity of natural resources are increasingly pressing challenges. The system uses an IoT device based on the ESP-IDF development environment and ESP32 microcontrollers, which provide the technological basis for an autonomous and configurable prototype. As a result, this device can analyse and identify critical water status data. Its configurability, both in technological and physical components, allows it to be installed in a variety of scenarios, including swimming pools, parks and flower shops, as well as indoor and outdoor cultivation. This flexibility ensures that the system can be adapted to the specific conditions and needs of each type of crop, guaranteeing a versatile and efficient solution for various applications. The product development includes a monitoring system that is easily integrated into existing irrigation infrastructures, employing IoT technologies and sensors for real-time analysis using the freeRTOS operating system. The sensors used include a dissolved oxygen sensor, a temperature sensor, a solids and turbidity sensor, and a pH sensor, which are crucial for obtaining accurate measurements of water status. In addition, the system incorporates other sensors and actuators to ensure proper operation, such as a water level sensor to avoid empty readings, an automatic air vent and a ball valve to ensure flow in areas with low water pressure or low water flow. All these sensors are arranged in a vertical format along the pipe, with their position meticulously studied to optimise their function. To facilitate the configurability and adaptability of the system to the environment, an intuitive user interface hosted on a web server has been designed. Users can receive remote alerts via Telegram, allowing water analyser subscribers to make informed decisions or research the latest irrigation data. This combination of technologies ensures that users can stay informed and make decisions based on accurate and up-to-date data, thus improving the overall efficiency of the irrigation system. The system is fully scalable, from manufacturing to recycling and development. Programmers can remotely test and update the entire Crop.AI physical network thanks to GitHub Actions technology and device fabrication, which ensures consistency through detailed hardware design drawings made with KiCad and manufactured with JLCPCB. This remote upgradeability and maintainability ensures that the system remains at the cutting edge of technology, always delivering optimal performance. Sustainability is a key pillar of this project. By reducing water and energy consumption, Crop.AI not only helps improve crop efficiency, but also promotes more responsible and environmentally friendly farming practices. This sustainable approach is essential in a world where the conservation of natural resources is vital to ensure food security and the long-term health of the planet. The evaluation of the system is carried out through pilot tests in various crop types and environmental conditions, confirming its effectiveness in improving crop health. The results demonstrate that the system is not only functional and efficient, but also promotes sustainability and resource conservation in the agricultural sector. In this way, Crop.AI contributes to the reduction of uncontrolled water wastage in agricultural production. This project extends the existing literature on sustainable technologies in agriculture and presents an innovative and scalable solution to address the challenges of efficient water management in agricultural and urban contexts, highlighting its applicability and relevance in today's sustainability landscape. With Crop.AI, it demonstrates how the integration of advanced technologies in agriculture can lead to more efficient resource management, promoting a more sustainable and equitable future.
显示更多 [+] 显示较少 [-]Diseño y construcción de módulo IoT para la monitorización de la calidad del agua de riego 全文
2022
Arquero Gallego, Juan | García Alcántara, Vicente A.
La memoria de este proyecto comienza analizando el estado actual del problema a resolver mediante el desarrollo del sistema propuesto. Se enumeran los distintos problemas devenidos de una mala gestión de los recursos hídricos a los cuales se puede hacer frente mediante la utilización de la herramienta desarrollada. Más adelante se realiza un estudio del estado de la técnica, en el que se analizan las investigaciones realizadas por terceros en el mismo área de conocimiento en el que se desarrolla el sistema expuesto. También se realiza una búsqueda de sistemas similares ya desarrollados, en el ámbito de investigación o presentes en el mercado, poniendo el foco en las diferencias presentes y tratando de desarrollar un producto competitivo. Tras ello se expone la metodología de trabajo seguida para el desarrollo del proyecto, que abarca desde la fase de diseño hasta la de pruebas, pasando por la construcción e implementación. Una vez descritas las distintas fases del desarrollo se comienza por la primera de ellas, el diseño del sistema. En este capítulo se analizarán los requerimientos del sistema, se diseñará un sistema que satisfaga dichos requerimientos y mediante el lenguaje unificado SysMl se realizará el modelado de este diseño. Después de realizar el diseño del sistema y especificar todas sus partes, se procede a diseñar el componente fundamental del sistema hardware, la placa de circuito impreso o PCB. En el capítulo dedicado a este tema se exponen las restricciones de diseño encontrados, el diseño esquemático del circuito, y los parámetros establecidos para la fabricación del mismo. También son especificados el posicionamiento escogido para los componentes hardware del circuito y la técnica de enrutamiento seguida para su interconexión. Se sigue la memoria exponiendo los parámetros de diseño tenidos en cuenta para el correcto funcionamiento del sistema desarrollado a nivel eléctrico, tales como cálculo de potencia disipada, dimensionamiento de resistencias, diseño de sistema de alimentación o sistema de control de potencia suministrada a las electroválvulas. A continuación, se realiza un estudio sobre el sistema desarrollado para realizar la conversión de los datos arrojados por los sensores instalados, en analógico, a valores computables en el microcontrolador, que son digitales. En este estudio se analiza que conversor ha de usarse para cumplir los requerimientos establecidos y se muestra la configuración escogida para el mismo. En el capítulo que sigue a este, se realiza la calibración de los sensores, atendiendo a los valores tomados en las pruebas de laboratorio que han sido realizadas. Una vez establecidos todos los parámetros de diseño hardware del sistema, se procede a su ejecución. Para la fabricación de la PCB se decide externalizar la producción, por lo que se realiza un breve estudio de mercado de las distintas empresas que ofrecen este servicio. Una vez fabricada la placa de la PCB se procede a posicionar los distintos componentes que conforman el sistema. Para ello se realiza un estudio de mercado de los distintos proveedores hardware disponibles, y una vez adquiridos dichos componentes se realizan las soldaduras necesarias. El mismo proceso se sigue para los componentes hardware periféricos. Estando ya desarrollado el sistema hardware, se procede al desarrollo software del sistema, basado principalmente la programación del microcontrolador instalado en la PCB. También se realiza el desarrollo web necesario para implementar una plataforma online de graficado de los datos obtenidos, un bot de Telegram funcional capaz de cambiar aspectos de configuración del sistema de forma remota y ofrecer datos recogidos en tiempo real, y una plataforma online parta la actualización de software de forma remota e inalámbrica (OTA). Una vez construidos los sistemas software y hardware, se procede al diseño y ejecución del sistema hidráulico encargado de realizar la derivación del flujo de agua en baipás para la toma de muestras. Este sistema compuesto por tuberías es diseñado y fabricado usando piezas estándar de fontanería, para permitir su acople en instalaciones reales. Tras ello se realiza el diseño y construcción del cofre contenedor del sistema hardware desarrollado. Dicho diseño se realiza mediante modelado 3D y las distintas piezas que lo componen son fabricadas con impresoras 3D. Por último, se procede a especificar todas las pruebas realizadas durante el desarrollo del proyecto. Primeramente, se realiza una exposición del diseño de pruebas escogido y después se presentan los resultados obtenidos tras ejecutar las pruebas siguiendo dicho diseño. Abstract: The report of this project begins with an analysis of the current state of the problem to be solved through the development of the proposed system. It lists the different problems resulting from poor water resource management that can be addressed by using the developed tool. Later on, a study of the state of the art is carried out, in which the research carried out by third parties in the same area of knowledge in which the proposed system is developed is analyzed. A search for similar systems already developed in the research area or present on the market is also carried out, focusing on the present differences and trying to develop a competitive product. After this, the work methodology followed for the development of the project is presented, ranging from the design phase to the testing phase, including construction and implementation. Once the different phases of development have been described, we will start with the first phase, the design of the system. In this chapter, the system requirements will be analyzed, a system that satisfies these requirements will be designed, and the modeling of this design will be carried out using the unified language SysMl. After designing the system and specifying all its parts, the next step is to design the fundamental component of the hardware system, the printed circuit board or PCB. In the chapter dedicated to this topic, the design restrictions found, the schematic design of the circuit, and the parameters established for its manufacturing are exposed. The positioning chosen for the hardware components of the circuit and the routing technique followed for its interconnection are also specified. The report continues by explaining the design parameters taken into account for the correct operation of the developed system at electrical level, such as calculation of dissipated power, sizing of resistors, design of the power supply system or power control system supplied to the solenoid valves. Next, a study is carried out on the developed system to convert the data provided by the installed sensors, in analog, to computable values in the microcontroller, which are digital. In this study, it is analyzed which converter has to be used to fulfill the established requirements, and the configuration chosen for it is shown. In the chapter that follows this, the calibration of the sensors is carried out, taking into account the values taken in the laboratory tests that have been carried out. Once all the hardware design parameters of the system have been established, we proceed with its execution. For the manufacture of the PCB it is decided to outsource the production, so a brief market study of the different companies that offer this service is carried out. Once the PCB board has been manufactured, the different components that make up the system are positioned. For this purpose, a market study of the different hardware suppliers available is carried out, and once these components have been acquired, the necessary soldering is carried out. The same process is followed for the peripheral hardware components. Once the hardware system is developed, we proceed to the software development of the system, mainly based on the programming of the microcontroller installed on the PCB. The necessary web development is also carried out to implement an on-line platform for graphing the data obtained, a functional Telegram bot capable of changing aspects of system configuration remotely and providing data collected in real time, and an on-line platform for software updates remotely and wirelessly (OTA). Once the software and hardware systems are built, we proceed to the design and execution of the hydraulic system in charge of bypassing the water flow in a bypass for sampling. This system composed of pipes is designed and manufactured using standard plumbing parts, to allow its coupling in real installations. After that, the design and construction of the container box of the developed hardware system are carried out. This design is made by 3D modeling and the different parts that compose it are manufactured with 3D printers. Finally, all tests carried out during the development of the project are specified. First, a presentation of the chosen test design is made and then the results obtained after running the tests following this design are presented.
显示更多 [+] 显示较少 [-]Análisis de la contaminación del agua por hidrocarburos: aplicación y comparativa de técnicas de Machine Learning supervisadas 全文
2020
Morán Arce, Javier | Gómez Canaval, Sandra
Este proyecto aborda la problemática del análisis inteligente de datos en dominios de problemas donde existe carencia de datasets etiquetados para utilizar modelos de clasificación con diferentes algoritmos mediante el uso de técnicas de Machine Learning supervisadas. Debido al gran volumen, alta carga de trabajo y complejidad que supone este proyecto, se ha determinado segmentar el contenido del mismo entre dos personas. Respecto a la diversidad de problemas enfrentados, se expone seguidamente la exploración de los propios. El primero de ellos, es la escasez de datasets que puedan utilizarse para entrenar un modelo, bien por la imposibilidad de utilizar datasets reales por protección de datos, o el simple hecho de que no se llega a hacer la recolección, tratamiento, análisis y almacenaje de esos datos correctamente. Por ello, se utilizará una herramienta que ha sido desarrollada para este propósito dentro del alcance de otro Proyecto de Grado, el de mi compañero Álvaro Arcos Delgado. Esta herramienta permite la generación de datasets sintéticos propios, que ejemplifican escenarios configurando diversos parámetros y valores para generar conjuntos de datos de cualquier tamaño, de categorías diferentes, balanceados no imbalanceados, etiquetados o sin etiquetar, con valores simulando errores en la recogida de datos, simbólicos o numéricos. La idea de esta herramienta es generar conjunto de datos que tratan de simular de la mejor manera posible, los datos provenientes de escenarios reales. En este Proyecto de Fin de Grado, se utilizará dicha herramienta para entrenar los modelos de Machine Learning seleccionados. En segundo lugar, la insuficiencia de cotejos entre diferentes algoritmos que revelen con cierta convicción qué algoritmos son mejores para distintos tipos de datasets. Para esclarecer este punto, se realiza un exhaustivo estudio de diferentes algoritmos, tanto de clasificación binaria como multiclase, utilizando parámetros personalizados para cada uno como la impuridad, repeticiones o profundidad. Modificando los hiperparámetros de cada algoritmo, se podrán plantear diferentes circunstancias en los que los algoritmos de clasificación ofrecen diferentes resultados. Con estas comparaciones, observamos las ventajas que ofrecen unos frente a otros en rendimiento computacional o precisión dependiendo del volumen de información en el dataset, la variación entre los parámetros para los posibles resultados. En este proyecto, los algoritmos que han sido analizados para clasificación binaria son Random Forest Binary y Decision Tree Binary, a la vez comparados con Linear Support Vector Machine analizado por mi compañero, y por otro lado para clasificación multiclase se implementan modelos como el Multilayer Perceptron y Decision Tree Multiclass implantado en One vs Rests, confrontados con Logistic Regression Multiclass. Otro problema recurrente en desarrollos de Machine Learning, es el análisis de la toma de decisiones sobre cómo etiquetar los datos cuando una variable toma diferentes rangos de valores y lo que importa (dentro del contexto analizado) es que todos los valores de dicho intervalo compartirían la misma etiqueta. Este escenario es muy común en contextos IoT donde un sistema recoge valores continuos desde diferentes fuentes remotas de sensores. En esto casos, la solución adoptada es utilizar un lenguaje simbólico que consiste en asignar un símbolo (un carácter) a cada posible rango. De esta forma, no se evalúa si un valor pertenece o no a un rango concreto de los distintos existentes, si no que simplemente se comprueba que pertenezca al rango sin importar el valor exacto. De esta forma, evitamos comprobaciones que podían suponer mayor coste de recursos computacionales. En nuestro caso, se ha definido un lenguaje simbólico con un total de 71 símbolos, los cuales representan todos los distintos intervalos del espacio muestral de los valores a analizar sin que se solapen, incluyendo intervalo no válido. Finalmente, la recolección, tratamiento, análisis y almacenaje de datos representados se realizará sobre plataformas de computación ultraescalable como Apache Spark. Para ello se ha desarrollado un framework que permite integrar a) la herramienta generadora de datasets simbólicos, b) el código de los algoritmos de Machine Learning seleccionados, c) el entrenamiento, validación y testing de dichos algoritmos y c) el análisis y visualización de los resultados y métricas de calidad obtenidos en cada uno de los algoritmos. El desarrollo de esta herramienta está basada en el hecho que para la transferencia de este desarrollo a un escenario real, podría ser factible plantearse un framework que supone una mejora computacional en cuanto a la escalabilidad, el manejo de data streamming, las capacidades de la computación distribuida y paralela más adecuados cuando se llevan a cabo desarrollos software para aplicaciones IoT con sensorización remota. Abstract: This project addresses the problem of intelligent data analysis over problem domains where there is a lack of labeled datasets required for using classification modelsof supervised Machine Learning techniques. In particular, this Project explores an attractive and important domain such as Medio-environmental Analysis, specifically the problem related to the hydrocarbons pollutants. Due to the large volume, high workload and complexity of this project, it has been split in two parts each one of them to be executed by two students. Regarding the diversity of problems faced, the exploration of their details is presented below. The first of this problems, is the shortage of accessible datasets that can be used to train a Machine Learning model, in terms of availability of real datasets because of the LOPD1, or because of the fact that Collecting, Storing, Analyzing, and Using data is not usually done correctly. For this reason, in this Project is used specifically synthetic datasets which simulate scenarios where parameters and values are equivalent to real ones. These datasets are a perfect replication of the original values obtained from the process of analyzing the presence of hydrocarbons in water sources. These datasets may be personalized in different ways by tuning certain parameters. The options which can be modified are the extraction of unlabeled datasets in addition to labeled ones, extracting datasets with some deviated results besides the regular one and obtaining the same dataset, the numeric one and its equivalent symbolic one. Secondly, the lack of comparisons between different algorithms which expose with certain assurance which algorithms are better than other for different kinds of datasets. In order to clarify this concern, it is done an exhaustive study of binary algorithms as well as multiclass algorithms, using their own hyperparameters like impurity, maxDepth or numIter. Modifyng each algorithm’s hyperparameters, varying situations where classification algorithms offer different results. With these comparisons, we can notice some improvements such as velocity or accuracy ones in opposition to others depending on the dataset’s amount of data or the specific hyperparameters. In this project, there have been developed the following algorithms for binary classification: Random Forest Binary and Decision Tree Binary compared with Linear Support Vector Machine. On the other hand, Multilayer Perceptron along Decision Tree implemented in One vs Rest compared with Logistic Regression are the multiclass ones. Other problem often that show up during Machine Learning developing, is the computing cost evaluating values inside a range. In a data repository with millions of entries, assessing whether a variable with a certain value belongs to a specific range is virtually impossible. The solution adopted, is to use a symbolic language. In this case, a symbol (a character) is assigned to each possible range. In this way, you do not evaluate whether or not a value belongs to a specific range of the different existing ones, you simply check if it is the same symbol as some range and therefore exists in it. In this way, we avoid checks would entail high costs of computational resources. In our case, we have a language with a total of 71 symbols, which represent all the different ranges of the spectrum without overlapping, including invalid ranges. Finally, collection, treatment, analysis and storage of data will be performed by the ultra-scalable computing platforms like Apache Spark. This can be a framework that will be a computing improvement in light of other options when it is imperative to have a way of working distributedly and parallelly simulating data from remote sensing as an example.
显示更多 [+] 显示较少 [-]Extensión de un sistema que hace uso de la espectrometría para obtener, procesar y monitorizar la calidad del agua 全文
2019
Moreno Álvarez, Carlos | Gómez Canaval, Sandra | Arqués Orobón, Francisco José
La monitorización de nuestros recursos naturales es una actividad de vital importancia para los humanos y el planeta. La vigilancia es llevada a cabo por diversas instituciones y organismos con la finalidad de garantizar los requisitos básicos para la vida humana en determinadas áreas geográficas y el medio ambiente en general. El agua es uno de los recursos vitales más importantes, por lo que necesita un proceso de observación especial para determinar la presencia de sustancias dañinas. Entre los posibles contaminantes de aguas fluviales se encuentran los hidrocarburos. Los sistemas actuales para realizar el seguimiento y control de la calidad del agua emplean diversas técnicas que incluyen diversos tipos de sensores. La espectrometría aplicada con la técnica y conocimiento científico apropiados, es una de estas técnicas, siendo capaz de identificar hidrocarburos presentes en la superficie del agua. En situaciones más críticas, existen soluciones conectadas a Internet y con capacidad de respuesta propia, lo cual los convierte en sistemas ciberfísicos: una composición de subsistemas software, de telecomunicaciones y de hardware que incluyen un número de sensores, cada uno de los cuales utilizado para medir o controlar uno o varias variables. En este contexto, el sistema planteado en este Proyecto Final de Grado consiste en desarrollar una aplicación capaz de interactuar con un espectrómetro para obtener, procesar y crear visualizaciones para la identificación de los hidrocarburos. En particular, la visualización consiste en generar varios gráficos que permitan aplicar una serie de filtros necesarios para el análisis del tipo de hidrocarburo. El sistema a desarrollar está compuesto por diversos elementos, entre los que se incluyen una aplicación gráfica que tiene implementada una interfaz con el espectrómetro, un componente que procesa los datos obtenidos con el mismo y un componente de visualización que mediante la aplicación de diferentes filtros hace disponible los datos de forma gráfica. La plataforma objetivo para el sistema a desarrollar es Linux ARM, concretamente una Raspberry Pi 3B con una pantalla táctil acoplada. El proyecto tiene su origen en el objetivo de mejorar los sistemas operacionales actuales para la monitorización de la calidad del agua fluvial, mediante la implementación de un innovador método basado en la espectrometría y que aprovecha las cualidades fluorescentes de los hidrocarburos cuando son expuestos a una frecuencia de luz ultravioleta. Abstract: The monitoring of natural resources is a vital issue for humans and the planet, watched by different entities in order to guarantee the basic living requirements for populations in any geographical area as well as the environment itself. The water quality is one of the most important resources, thus needing a specific monitoring process to determine the existence of harmful substances. Pollutants for inland water comprise different classes of hydrocarbons. Current systems for monitoring the water quality include a variety of sensors. Spectrometry applied with the right technical and scientific knowledge, is able to identify pollutants such as hydrocarbons. For situations where criticality is present, there are connected solutions which can autonomously respond to certain scenarios, we would be talking about cyberphysical systems: an arrangement of software, telecommunication and hardware subsystems making use of sensors to measure one or more variables. In this context, the system devised for this Final Project consists on developing an application which interacts with an spectrometer to acquire, process, and create useful visualizations by applying a set of filters. This system is made up of several components, among those included are a graphical application which has to interact with the spectrometer, and in turn, process the data provided by the former, applying different filters and making the data available by creating useful visualizations. The target platform of the developed system is Linux ARM, specifically a Raspberry Pi 3B with a touchscreen attached. The project originates with the aim of improving current operational systems for monitoring water quality for inland water masses, by the implementation of an innovative method based on spectrometry and the fluorescent qualities of hydrocarbons when exposed to ultraviolet light.
显示更多 [+] 显示较少 [-]Diseño de una red de sensores móvil para el estudio de modelos de infiltración del agua en suelos agrícolas 全文
2020
Loizu Cisquella, Maximo | Tabuenca Archilla, Bernardo | Gilarranz Casado, Carlos Andrés
Este trabajo consiste en el diseño, montaje y análisis de una red de sensores móvil que facilite la realización de estudios sobre la infiltración del agua en los distintos tipos de suelos agrícolas, concretamente para el sistema de riego por goteo (localizado). Para ello es necesario que la red de sensores ocupe un volumen significativo respecto al volumen que ocupan las raíces de los cultivos típicos para este sistema de riego (cultivos hortícolas y frutícolas principalmente). Los sensores utilizados son sondas de temperatura DS18B20 (después de haber descartado el uso de sensores de humedad del suelo YL-69/HL-69). Se ha validado la utilidad de los sensores de temperatura para la detección del avance del bulbo húmedo, mediante distintas pruebas (utilizando 3 tipos de suelo distintos y variando la temperatura del agua). El caudal del emisor utilizado en los distintos experimentos es de 2.4L/h. Finalmente se ha elaborado un prototipo de ‘pica’: un tubo de PVC de 1m de longitud, 3mm de grosor y unos 3cm de diámetro interno, en el que van insertados los sensores de temperatura, a 25cm de distancia cada uno. La pica posee una caja protectora en la parte superior, en la que se encuentra el microcontrolador (ESP32-WROOM) y toda la circuitería. Este prototipo sirve de precedente para el diseño una red de sensores práctica y precisa para la medición del avance del agua en riego localizado. Abstract: The present work consists of the design, installation and analysis of a sensor network, in order to facilitate the study of the wet bulb in drip irrigation systems, for the large variability of soils used in agriculture. To achieve this, the system (the sensor network) must cover enough space, according the crop characteristics (root depth and diameter). The sensors used for this experiment are DS18B20 temperature sensors (soil moisture sensor YL-69/HL-69 was also used but it was discarded after concluding they aren’t reliable for detecting water flow). The microcontroller used is ESP32-WROOM. Four experiments (changing water temperature and soil type) were performed in order to validate the utility of sensors DS18B20 for water flow detection. The emitter discharge rate used for the experiments was 2.4 L/h. Finally a sensor network prototype was built, which consist of a 1 meter PVC pipe (3mm thickness and 3cm of interior diameter), where all temperature sensors are embedded, each one separated 25cm from the others (placing then 4 sensors per pipe). At the top of the pipe there is a protective box which contains the microcontroler ESP32 and all the circuitry. This prototype can serve as a precedent for the design of a practical and accurate sensor network for water flow detection in drip irrigation systems.
显示更多 [+] 显示较少 [-]Análisis de la contaminación del agua por hidrocarburos: generación de datasets sintéticos y aplicación de técnicas de Machine Learning supervisadas 全文
2020
Arcos Delgado, Álvaro | Gómez Canaval, Sandra
Este proyecto aborda la problemática del análisis inteligente de datos en dominios de problemas donde existe carencia de datasets etiquetados para utilizar modelos de clasificación con diferentes algoritmos mediante el uso de técnicas de Machine Learning supervisadas. Debido al gran volumen, alta carga de trabajo y complejidad que supone este proyecto, se ha determinado segmentar el contenido del mismo entre dos personas. Respecto a la diversidad de problemas enfrentados, se expone seguidamente la exploración de los propios. El primero de ellos, es la escasez de datasets que puedan utilizarse para entrenar un modelo, bien por la imposibilidad de utilizar datasets reales por protección de datos, o el simple hecho de que no se llega a hacer la recolección, tratamiento, análisis y almacenaje de esos datos correctamente. Por ello, ha sido desarrollada una herramienta para la generación de datasets sintéticos propios, que ejemplifican escenarios configurando diversos parámetros y valores para generar conjuntos de datos de cualquier tamaño, de categorías diferentes, balanceados no imbalanceados, etiquetados o sin etiquetar, con valores simulando errores en la recogida de datos, simbólicos o numéricos. La idea de esta herramienta es generar conjunto de datos que tratan de simular de la mejor manera posible, los datos provenientes de escenarios reales. En segundo lugar, la insuficiencia de cotejos entre diferentes algoritmos que revelen con cierta convicción qué algoritmos son mejores para distintos tipos de datasets. Para esclarecer este punto, se realiza un exhaustivo estudio de diferentes algoritmos, tanto de clasificación binaria como multiclase, utilizando parámetros personalizados para cada uno como la impuridad, repeticiones o profundidad. Modificando los hiperparámetros de cada algoritmo, se podrán plantear diferentes circunstancias en los que los algoritmos de clasificación ofrecen diferentes resultados. Con éstas comparaciones, observamos las ventajas que ofrecen unos frente a otros en rendimiento computacional o precisión dependiendo del volumen de información en el dataset, la variación entre los parámetros para los posibles resultados. Este proyecto se ha tratado como un primer acercamiento para comprobar la fiabilidad de los datasets, por tanto los algoritmos que han sido utilizados son Linear Support Vector Machine para una clasificación binaria y, por otro lado, para clasificación multiclase se implementa Logistic Regression mediante One vs Rest. Finalmente, la recolección, tratamiento, análisis y almacenaje de datos representados se realizará sobre plataformas de computación ultraescalable como Apache Spark. La selección de este herramienta está basada en el hecho que para la transferencia de este desarrollo a un escenario real, podría ser factible plantearse un framework que supone una mejora computacional en cuanto a la escalabilidad, el manejo de data streamming, las capacidades de la computación distribuida y paralela más adecuados cuando se llevan a cabo desarrollos software para aplicaciones IoT con sensorización remota. Abstract: This project addresses the problem of intelligent data analysis over problem domains where there is a lack of labeled datasets required for using classification models of supervised Machine Learning techniques. In particular, this Project explores an attractive and important domain such as Medio-environmental Analysis, specifically the problem of the hydrocarbons pollutants. Due to the large volume, high workload and complexity of this project, it has been split in two parts each one of them to be executed by two students. Regarding the diversity of problems faced, the exploration of their details is presented below. The first of this problems, is the lack of available datasets that can be used to train a Machine Learning model in the Water Quality domain. In a general context, the unavailability of real datasets is due to the LOPD1, or because of the fact that Collecting, Storing, Analyzing, and Using data is not usually done correctly. In some scenarios the solution is the design of a ad-hoc environment in which are reproduced synthetic datasets with parameters and values are equivalent to real ones. These datasets are a perfect replication of the original values obtained from the process of analyzing the presence of hydrocarbon pollutants in water sources. These computational environments allow to generate different kinds of datasets configuring certain parameters. The options which can be modified are the extraction of unlabeled datasets in addition to labeled ones, extracting datasets with some deviated results besides the regular one and obtaining the same dataset, the numeric one and its equivalent symbolic one. Secondly, the insufficiency of comparisons between different algorithms which expose with certain assurance which algorithms are better than other for different kinds of datasets. In order to clarify this concern, it is done an exhaustive study of binary algorithms as well as multiclass algorithms, using their own hyperparameters like impurity, maxDepth or numIter. Modifyng each algorithm’s hyperparameters, varying situations where classification algorithms offer different results. With these comparisons, we can notice the beneficts such as velocity or accuracy ones in opposition to others depending on the dataset’s amount of data or the specific hyperparameters. This project has been treated as a first approach to verify the reliability of datasets, therefore the algorithms that have been used are Linear Support Vector Machine for a binary classification and, on the other hand, for multiclass classification, Logistic Regression is implemented through One vs. Rest. Finally, acquisition, treatment, analysis and storage of data will be performed by the ultra-scalable computing platforms like Apache Spark. This can be a framework that will be a computing improvement in light of other options when it is imperative to have a way of working in a distributed and parallell may to simulate data from remote sensing as an example.
显示更多 [+] 显示较少 [-]