Ayuda
Ir al contenido

Dialnet


Big data en el LHC

    1. [1] Universitat de València

      Universitat de València

      Valencia, España

    2. [2] Universidad de Oviedo

      Universidad de Oviedo

      Oviedo, España

    3. [3] Centro Superior de Investigaciones Científicas (CSIC), Instituto de Física Corpuscular (IFIC), centro mixto CSIC-UV
  • Localización: Revista española de física, ISSN 0213-862X, Vol. 32, Nº. 1, 2018 (Ejemplar dedicado a: Revista Española de Física), págs. 19-23
  • Idioma: español
  • Texto completo no disponible (Saber más ...)
  • Resumen
    • Desde que en el año 2009 comenzaran a circular los primeros haces de protones en el LHC del CERN, los cuatro grandes detectores situados en los puntos de colisión han recogido un ingente volumen de datos, produciendo una media de 10 PetaBytes/año. Estos datos deben estar accesibles para todos los miembros de los distintos experimentos para ser analizados en el menor tiempo posible. Se está claramente ante lo que hoy se conoce como un problema de big data. Para resolver este problema se diseñó un Modelo Computacional que ha ido evolucionando con los años adaptándose tanto a las necesidades como a los recursos disponibles de almacenamiento, procesado y accesibilidad de los datos. Además, abordaremos las mejoras en las metodologías utilizadas en los análisis en el sentido de la obtención eficiente de conocimiento.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno