Supercómputo para la Industria de Exploración y Producción de Hidrocarburos


#Diplomados

Diplomados

Diplomado en Aplicaciones de Exploración y Producción de Hidrocarburos: Modelado y soluciones con herramientas GNU (libre) y comercial


Este diplomado busca desarrollar el conocimiento integrado de alta especialización en el manejo de software de supercómputo con licenciamiento y libre. Así mismo, busca fomentar el aprendizaje colaborativo en el modelado de fenómenos físico, químicos y termodinámicos, así como su representación con modelos matemáticos que permitan obtener soluciones numéricas aplicadas a resolver problemas de la Exploración y Producción de Hidrocarburos, para lo cual se ha estructurado en los siguientes módulos:


I.   Aplicaciones y herramientas GNU (libre) y comercial
II. Modelos de fenómenos físicos, químicos y termodinámicos usados en la aplicación (la o las aplicaciones en las que se enfoca este diplomado)
III. Modelos de simulación numérica usado por la aplicación
IV.  Solución numérica.
V.   Configuración de Datos de Entrada y Salida e Interpretación de la información

Modelos de fenómenos físicos, químicos y termodinámicos en hidrocarburos.
 
Se han usado las matemáticas para resolver problemas en múltiples áreas de la vida cotidiana. Es por ello que, las matemáticas tienen variadas perspectivas que van desde el desarrollo de complejas teorías intelectuales, hasta la modelación de fenómenos o situaciones que ocurren en nuestro entorno. Este desarrollo ha recibido sus aportes de destacados matemáticos, que en muchas ocasiones estaban resolviendo problemas físicos (Arquímedes, Newton, Euler, Navier, Stokes, entre otros); todo lo relativo a la materia, que sigue las leyes de conservación de la Física, se podría clasificar como gas, liquido, sólido, o cualquier combinación entre ellos.
 
Ahora bien, los modelos matemáticos para dinámica de fluidos involucran ecuaciones en derivadas parciales no lineales. Dichos modelos podrían estar constituidos por una sola ecuación, o por un sistema de varias ecuaciones acopladas que, en general, conllevan gran dificultad y complejidad matemática.
 
Un modelo matemático, en términos generales, es una ecuación o conjunto de ecuaciones matemáticas que dan solución a un problema matemático específico. Este problema, en muchos casos, es la idealización del problema físico real planteado para ser resuelto. La idealización es el proceso a través del que se plantean suposiciones para simplificar el problema a resolver; esto se hace ya que no es sencillo encontrar todas las ecuaciones involucradas para modelar dicho problema con un solo planteamiento.
 
El modelado de fenómenos físicos, químicos y termodinámicos, para el caso de hidrocarburos, resulta ser complejo ya que hay que partir desde la consideración del flujo de un hidrocarburo en el yacimiento (medio poroso), hasta su procesamiento para su puesta en venta. En este proceso no sólo se combinan diferentes flujos en distintas fases bajo deferentes condiciones de operación, sino que existe una interacción con los muchos materiales con los que se tiene contacto, entre otras muchas variables. Por lo anterior, es necesario emplear correlaciones en prácticamente todas las herramientas software comerciales utilizados en el sector energético.
 
Modelos de simulación numérica aplicados a hidrocarburos.
 
La modelación matemática y computacional (MMC) consiste de la construcción de modelos matemáticos de fenómenos que ocurren en la naturaleza y en procesos industriales, además de darle solución a éstos mediante el uso de técnicas numéricas y computacionales.
Image
Un yacimiento petrolero está constituido de un material sólido y poroso (la matriz), cuyos huecos están llenos de fluidos que se separan en tres fases: agua, aceite y gas, así como una mezcla de estos. La simulación de yacimientos petroleros es muy compleja, debido a la cantidad de variables que se deben de considerar, como son: rasgos geológicos y estructurales del yacimiento. Fallas y delimitación de unidades geológicas, tipos de rocas y su distribución, etc. Distribución de las propiedades petrofísicas de roca y fluidos. Porosidad, permeabilidad, saturación, etc. Tipo de modelo, ya sea de una, dos o tres fases (petróleo, agua, aceite). Composicional modelos térmicos. Reacciones químicas. Llegar a contemplar un modelo que cuente con todos sus parámetros y resolverlo analíticamente, es prácticamente imposible. Por otro lado, considerar hacer esto con cada pozo e instalación que existe dentro de un campo requeriría de mucho tiempo de cálculo para poder alcanzar una solución aproximada.
 
Dado que no existe solución analítica general de los modelos matemáticos, se recurre a métodos numéricos para simular los fenómenos que ocurren en la extracción de petróleo.
 
En los métodos numéricos tradicionales se requiere de la construcción de una malla sobre el dominio físico de estudio.
 
Los métodos numéricos más usados: Diferencias finitas (MDF), Volumen finito (MVF) Elemento finito (MEF). En años recientes el método de MVF, originalmente desarrollado para mallas estructuradas, ha sido adaptado a mallas no estructuradas para geometrías complejas. Debido a esto el MVF ha sido utilizado en Simulación Numérica de Yacimientos (SNY), y de acuerdo con varios autores, es actualmente una buena opción al MDF y MEF.
 
Solución numérica de ecuaciones diferenciales parciales y ordinarias.
 
En complemento a los modelos anteriores es necesario considerar sistemas de ecuaciones en métodos de elemento finito para obtener la solución aproximada de ecuaciones diferenciales ordinarias y en derivadas parciales haciendo uso de diferentes métodos matemáticos y computadoras. Las ecuaciones clásicas de modelos físicos y pruebas de soluciones analíticas y numéricas son consideradas para su aplicación en soluciones en el área de Exploración y Producción de Hidrocarburos. Actualmente, los métodos que se utilizan en términos generales, son: Diferencias Finitas, Elementos Finitos y Volumen Finito, los cuales son de dignos de estudio para su aplicación en métodos para Supercómputo.

Diplomado en Big Data e Internet de las cosas, con procesamiento por medio de Supercómputo aplicado a la Exploración y Producción de Hidrocarburos


Este diplomado persigue la formación de competencias especializadas en el procesamiento analítico de datos obtenidos de grandes repositorios de información en el ámbito de Exploración y Producción, así como la adquisición de datos del entorno a partir por medio de sensores conectados a internet, y procesándolos en equipos con la capacidad de Supercómputo de alto desempeño, pudiendo utilizar servicios en los centros de datos locales o mediante servicios de Cloud Computing, los módulos que componen este diplomado son los siguientes:

I.   Arquitecturas de información
II.  Analitics & Big Data
III. Computo de alto desempeño
IV.  Internet de las cosas
V.   Herramientas de Big Data
 
Big Data
 
Una forma de poder generar ventaja competitiva para la industria, empresa u organización, a partir de datos e información que tienen disponible, es haciendo interactuar las diferentes tecnologías que soportan el Big Data y el Cómputo en la Nube. El Cómputo en la Nube o Cloud Computing se refiere al poder contar con servicios de cómputo, almacenamiento en forma escalable y sobre demanda. El término Big Data se refiere a la capacidad de extraer y generar valor agregado a partir de grandes volúmenes de datos e información disponibles en la empresa u organización. Este diplomado permitirá a los participantes adquirir todos los conceptos y conocimientos sobre estos dos temas aplicativos de interés para la académica-investigación, industria, gobierno y administradores, considerando que focalizarán en distintas problemáticas relacionadas con la Exploración y Producción de Hidrocarburos. Así mismo, se pondrá en evidencia la necesidad del Supercómputo para obtener un elevado potencial de procesamiento y almacenamiento de datos e información, así como para realizar captura, búsqueda, compartición, análisis y visualización.
 
Internet de las cosas
 
Es inminente el aumento sustancial de dispositivos interconectados en la red. Por una parte, apenas un informe de Gartner del 2016 apuntaba que más de 6400 millones de estos dispositivos habrían de estar ya conectados y, por la otra, otro informe reciente de IDC señala que el IoT moverá billones de dólares hacia 2019. Es un hecho que el IoT ya está cambiando nuestro mundo, sobretodo en la manera en como se está revolucionando el modo en que entendemos la comunicación entre los objetos.
 
El IoT está compuesto hoy en día por billones de sensores y objetos inteligentes conectados (en forma inalámbrica). La mayoría de estos dispositivos IoT se encuentran en fábricas, industrias, corporaciones, negocios e incluso instituciones de salud, brindándoles todos aquellos datos vitales que requieren para sus principales procesos y de esta manera, incrementando su eficiencia, reduciendo costos o incluso ayudando a salvar vidas. La industria del petróleo no es la excepción. Se trata de un sector de alta complejidad e impacto
para el mundo, por lo que es necesario impulsar el desarrollo de esta industria de forma significativa para ser capaces de enfrentar los desafíos que hoy en día impactan las actividades y operaciones en este sector. Aspectos tales como la gestión de seguridad en ambientes peligrosos de trabajo; la reducción de altos costos de operación; el de incremento en el factor de producción toda vez que manteniendo operaciones confiables y seguras; la elevación de ingresos, evitando pérdidas y por supuesto encontrar nuevas reservas en aguas profundas. Todo ello debe estar ligado a un claro compromiso con el cuidado del medio ambiente.
 
Este diplomado permitirá a los participantes interesados en el sector de hidrocarburos, venidos de la académica-investigación, industria, gobierno y administradores, adquirir todos los conceptos y conocimientos relacionados sobre IoT, una tecnología digital de vanguardia, considerando que se focalizará en el despliegue de dicha tecnología para la solución de distintas problemáticas relacionadas con la Exploración y Producción de Hidrocarburos.

Diplomado de Desarrollo de Aplicaciones de Supercómputo para Exploración y Producción de Hidrocarburos y Gestión de Centros de datos


A través de este diplomado, el especialista obtendrá los conocimientos de arquitecturas de cómputo paralelo, sistemas operativos base y desarrollará las competencias especializadas en la administración de los diferentes recursos del centro de datos de supercómputo de forma integral tomando en cuenta el contexto de la operación de los centros de datos del sector de Exploración y Producción de Hidrocarburos, el contenido del diplomado se compondrá de los siguientes módulos:
 
I.   Administración de clúster y centros de datos
II.  Conceptos de arquitecturas de cómputo paralelo
III. Sistemas operativos para computo de alto rendimiento
IV. Herramientas y Software para apoyo a problemas petroleros
V.  Conceptos de Seguridad, almacenamiento y comunicaciones
 
Paradigmas de programación paralela.
 
La computación en paralelo, utiliza múltiples elementos de procesamiento de forma simultánea para resolver un problema. Esto se logra mediante la división del problema en partes independientes, de modo que cada elemento de procesamiento pueda ejecutar una parte del algoritmo de forma simultánea con los otros. Los elementos de procesamiento son diversos e incluyen recursos tales como una computadora con múltiples procesadores, varios ordenadores en red, hardware especializado, o cualquier combinación de los anteriores.
 
El aumento de la frecuencia fue la razón dominante de las mejoras en el rendimiento de las computadoras. El tiempo de ejecución de un programa es igual al número de instrucciones multiplicado por el tiempo promedio por instrucción. Manteniendo todo lo demás constante, el aumento de la frecuencia de reloj reduce el tiempo medio que tarda en ejecutarse una instrucción, por tanto, un aumento en la frecuencia reduce el tiempo de ejecución de los programas de cómputo.
 
Algunos de los tipos de paralelismo más importantes son:
 
  • Paralelismo a nivel de bit
  • Paralelismo a nivel de instrucción
  • Paralelismo de datos
 
Administración del clúster y centro de datos.
 
En los centros de cómputo de alto rendimiento alrededor del mundo, el modelo de sistema más extendido es aquel basado en clúster con sistema operativo Linux. Estos sistemas surgen como una alternativa económica ante las grandes supercomputadoras. En este diplomado se hace una revisión del origen de estos sistemas, se identifican los diferentes componentes que se presentan en un sistema de este tipo y los procedimientos de instalación y puesta a punto de un clúster Linux. La administración y operación de clúster y centros de datos requieren de un manejo adecuado de los equipos, la infraestructura y el software de supercómputo, así como de los usuarios. Estos recursos deben ser administrados adecuadamente para optimizar su uso. Adicionalmente, es considerado el uso de herramientas de monitoreo, administración y registro de eventos mediante paquetes de distribución para sistemas Windows y Linux, con la finalidad de formar especialistas que ayuden a los usuarios de supercómputo y de software especializados del área de hidrocarburos a dar soluciones ágiles y eficientes a sus problemas, proveyendo a los especialistas de los conocimientos básicos necesarios para poder introducirlo en la Administración de Sistemas de Cómputo, principalmente enfocados al mantenimiento, operación y configuración de los equipos de supercómputo con la finalidad de garantizar su óptimo desempeño y seguridad. Así mismo, se revisan los procedimientos generales de instalación, configuración y puesta a punto de los servidores más comunes en centros de cómputo, así como las características generales del software, herramientas de cómputo y librerías más comúnmente utilizadas dentro del sector de hidrocarburos.
 
Conceptos de arquitectura de cómputo paralelo.
 
Este tipo de cómputo considera un conjunto de procesadores vectoriales, sistemas basados en múltiples procesadores fuertemente acoplados con memoria compartida o moderadamente acoplados con memoria local o bien débilmente acoplados como las multi-computadoras o sistemas distribuidos.
 
Dos de las arquitecturas más importantes aplicables a cómputo paralelo son:
 
SMP: Multiprocesamiento simétrico
  • Paralelismo sobre memoria compartida.
  • Modelo SIMD y modelo MIMD UMA.
  • Primera implementación en 1961.
  • Dominante hasta mediados de la década de 1990.
  • En 2006, aparecen los PCs dual core.
 
MPP: Procesamiento paralelo masivo
  • Sistema con muchas (decenas, cientos) unidades de procesamiento (ALU, procesadores).
  • Unidades integradas en una única arquitectura.
  • Dominaron el espectro de HPC hasta los inicios del 2010
 
Sistemas operativos para cómputo de alto rendimiento.
 
La infraestructura de recursos de cómputo de alto de desempeño requiere ser soportada por sistemas operativos especializados para Cómputo de Alto Rendimiento (High Performance Computing – HPC). Típicamente, uno de los sistemas operativos ampliamente utilizado para HPC es Linux. El supercómputo, los sistemas distribuidos, el cómputo paralelo, un clúster de computadoras, entre otros, constituyen arquitecturas o infraestructuras de cómputo que incluyen la disponibilidad de procesadores de alto rendimiento y redes de alta velocidad. El desarrollo de sistemas y aplicaciones de software para cómputo de alto desempeño implica el conocimiento de los diferentes modelos computacionales de arquitecturas de hardware y software; topologías de interconexión, así como su programación.
 
Hoy en día la industria del petróleo y gas enfrentan enormes desafíos en aguas arriba (upstream) y aguas abajo (downstream). Existen costos sumamente altos asociados a los procesos de exploración, perforación y administración de yacimientos. La industria del petróleo y gas, por ejemplo, basa sus procesos en gran medida en las simulaciones y modelos 3D con el fin de apoyar en la identificar de zonas prometedoras de exploración, siendo inevitable aumentar el poder de procesamiento para conseguir la ejecución satisfactoria de dichas simulaciones.
 
Existen vertientes como son el software de administración en la nube de HPC que permite enfrentar dichos desafíos. Recordemos que el Cómputo en la Nube, o Cloud Computing, intenta proveer el HPC como un servicio del mismo modo que se encuentran disponibles otros servicios. Se refiere al poder contar con servicios de cómputo, almacenamiento en forma escalable y sobre demanda. Precisamente los usuarios de HPC pueden obtener los beneficios de la Nube desde diferentes perspectivas, incluyendo no solamente la escalabilidad y recursos sobre demanda, sino también la rapidez de procesamiento y el bajo costo.
 
Este diplomado permite a los participantes adquirir todos los conceptos y conocimientos sobre sistemas operativos para HPC, considerando que se focalizará en distintas problemáticas relacionadas con la Exploración y Producción de Hidrocarburos. Asimismo, se pondrá en evidencia la necesidad del Supercómputo para obtener un elevado potencial de procesamiento y almacenamiento de datos e información, así como para realizar captura, búsqueda, compartición, análisis y visualización de forma que sea posible generar ventaja competitiva para la industria, empresa u organización.
 
Cómputo de alto rendimiento.
 
El campo del Cómputo de Alto Rendimiento (High Performance Computing o HPC en inglés) es una herramienta fundamental para el desarrollo de simulaciones computacionales a problemas complejos. Para lograr este objetivo, el cómputo de alto rendimiento se apoya en tecnologías computacionales como supercomputadores, clúster o mediante el uso de la computación paralela. La mayoría de las ideas actuales de la computación distribuida se han basado en cómputo de alto rendimiento.

Diplomado en Análisis y visualización de la información de Exploración y Producción con cómputo de alto desempeño


Este diplomado persigue desarrollar las capacidades del estudiante para fundamentar y seleccionar los modelos de visualización adecuados para representar una base de datos, facilitando la posibilidad de localizar relaciones, patrones, tendencias u otro hecho de interés para el especialista en análisis del entorno de Exploración y Producción de Hidrocarburos, los módulos que componen el diplomado son los siguientes:
A.   Introducción al Análisis, visualización e interpretación de los datos
B. 
Técnicas estadísticas para el análisis de datos
C.  Cloud Computing y Big Data
D.  Técnicas de Análisis de Datos
E.  Herramientas de visualización
 
Esta área de la computación se enfoca en el estudio de diversas técnicas de búsqueda, interpretación y comparación de cantidades masivas de datos para obtener información útil de dichos datos. Al resultado del análisis estadístico realizado a los datos se le aplican técnicas de visualización para proporcionarle al usuario información más compresible y más fácil de asimilar.
 
Este diplomado dará al especialista los conocimientos para ser capaz de fundamentar y escoger las visualizaciones de información a presentar como resultado de un análisis de datos de forma que dichas visualizaciones faciliten la posibilidad de encontrar relaciones, patrones, tendencias u otro hecho de interés. Así mismo, las competencias a desarrollar están relacionadas con el saber analizar la dependencia de que la selección de los datos, el método utilizado para la revisión a ellos, él orden y los resultados dependen de un motor de búsqueda y del dominio en interés. El especialista también podrá crear estructuras de datos independientes de cómo se almacenan en las bases de datos y que faciliten las diferentes visualizaciones. De igual forma, será posible comparar los modelos más utilizados de Análisis, Recuperación y Visualización de la Información desde la perspectiva de los espacios visuales, marcos semánticos, los algoritmos de proyección, la ambigüedad y la recuperación de información.