Portoviejo, Ecuador
Actualmente, la masificación de información en Internet, ha provocado el desarrollo de nuevas herramientas de análisis, por lo que se ha vuelto indispensable la adquisición de mecanismos sistemáticos que permitan administrar eficientemente la Big Data, todo esto con el fin de garantizar que las organizaciones y empresas puedan tomar decisiones relacionadas con un previo y efectivo análisis de datos. La Big Data es conocida como una combinación de datos estructurados, semiestructurados y no estructurados, los cuales son recopilados por las organizaciones, para luego ser procesados y presentados de manera pública o privada, posteriormente estos datos pueden usarse en proyectos de aprendizaje automático, modelado predictivo y otras aplicaciones de análisis avanzado. Se ha evidenciado que, en la actualidad la mayor parte de los datos no están estructurados, lo que dificulta la optimización de las tareas de procesamiento de datos y dado que el proceso de generación de datos no tiene fin, los procesos de recopilación y administración de información se han convertido en actividades más complejas. La presente investigación es de carácter analítico-sintético, debido a que se descomponen las partes a estudiar, realizándose un análisis y síntesis sobre la definición de la Big Data, tipos y mecanismos utilizados en el procesamiento de datos, además se presentan diversas herramientas utilizadas para administrar información voluminosa, asi mismo se identifican los algoritmos más eficientes para el procesamiento de información acorde a las necesidades de las organizaciones. Luego de integrar las partes estudiadas, se genera como resultado, una guía actualizada sobre los algoritmos y aplicaciones a utilizar en cada fase del procesamiento de datos, con el objetivo de que se facilite la toma de decisiones en las organizaciones
Currently, the massification of information on the Internet has led to the development of new analysis tools, so it has become essential to acquire systematic mechanisms to efficiently manage Big Data, all this in order to ensure that organizations and companies can make decisions related to a previous and effective data analysis. Big Data is known as a combination of structured, semistructured and unstructured data, which are collected by organizations, and then processed and presented publicly or privately, then these data can be used in machine learning projects, predictive modeling and other advanced analytics applications. It has been evidenced that, at present most of the data are not structured, which makes it difficult to optimize data processing tasks and since the data generation process is never ending, the information collection and management processes have become more complex activities. The present research is of an analytical-synthetic nature, due to the fact that the parts to be studied are decomposed, performing an analysis and synthesis on the definition of Big Data, types and mechanisms used in data processing, in addition to presenting various tools used to manage voluminous information, as well as identifying the most efficient algorithms for processing information according to the needs of organizations. After integrating the parts studied, the result is an updated guide on the algorithms and applications to be used in each phase of data processing, with the objective of facilitating decision making in organizations
© 2001-2026 Fundación Dialnet · Todos los derechos reservados