MODELOS DE PREDICCION APLICADOS A LA CONFIABILIDAD Y RIESGOS

by Centro de Investigaciones Matematicas Economicas y Sociales (CIMES)

El presente Ebook es el libro numero 8  de los 10 que conforman la carrera técnica “INGENIERIA ESTADISTICA APLICADA A LA CONFIABILIDAD Y RIESGO”,  estos ebooks están disponibles en la casa editora CIMES IICES.   El presente libro integra a los siete libros restantes  y  prepara las bases de la investigación científica aplicada al análisis de la fiabilidad y  riesgos.   Los primero cuatro libros son de nivelación matematica En  sus nuevas ediciones del 2016,  con un índice interactivo entre el Lector y la tabla de contenido  con aplicaciones de software matematicos y enlaces con videos de YOUTUBE seleccionados por temas.  se  comienza desde cero, es decir, el primero cubre “ALGEBRA DE POLINOMIOS Y METODOS DE FACTORIZACION”, le sigue “ALGEBRA DE FUNCIONES CON LOS SOFTWARE EQUATION GRAPHER Y MATHCAD”,  le sigue  “ALGEBRA DE MATRICES Y VECTORES CON EL MATHCAD Y EXCEL”, le sigue “CALCULO DIFERENCIAL E INTEGRAL APLICADO A LA ECONOMIA, FIABILIDAD Y RIESGO”.  El  formalismo-matematico.  Son libros especiales para el desarrollo de educacion virtual.   Los libros editados por el CIMES  e  IICES, con el email   cimes.iices@gmail.com.    Los restantes libros de Estadistica aplicados a la Fiabilidad y Riesgos presentan las mismas caracteristica inter-activas con los anteriores cuatro, enlazados con Internet y  videos de YOUTUBE por temas seleccionados.  Entre ellos:   “ESTADISTICA DESCRIPTIVA, REGRESION LINEAL Y CORRELACION” CON APLICACIONES A LA FIABILIDAD Y RIESGOS.  Este quinto libro presenta la inter-accion entre estructuras de bases de datos con software estadisticos como el SPSS, MINITAB, Statistics y Geógebra.  La regression lineal y correlacion se limita solo al calculo de los parametros del modelo lineal.   El libro 6  “CONJUNTOS, PROBABILIDADES Y LOGICA MATEMATICA APLICADA A LA FIABILIDAD Y RIESGOS”,  El libro 7  “VARIABLES ALEATORIAS Y FUNCIONES DE DISTRIBUCION APLICADOS A LA FIABILIDAD Y RIESGOS” siempre con aplicaciones de software matematicos-estadisticos y las conexiones interactivas con Internet y videos antes comentados,  en este septimo libro se presenta una interesante aplicacion del analisis de la fiabilidad y riesgos en el sector transporte.  El libro 8  es el presente, el libro 9 “MODELOS DE ECONOMETRIA APLICADOS A LA PRODUCCION” tiene un premio Ganado a nivel internacional, el libro 10 ya cubre  La metodologia de la investigacion cientifica aplicada a la fiabilidad  y el libro 11 cubre los modelos integrados a la teoria de juegos con la investigacion de operaciones.      
 
Desde la perspectiva intuitiva, diremos que un estimador es una variable aleatoria cuyo valor cambia con la muestra, generando un enfoque dinamico convergente hacia la población o conjunto universo. Un estimador es una función  que al evaluar el comportamiento de la muestra, genera resultados que se aproximan al parámetro poblacional que puede ser desconocido. El estimador es puntual si genera un único valor para ese  parámetro que describe el comportamiento del conjunto universo en estudio.   Un  estimador es por intervalo si genera  resultados en un segmento de confianza. Los estimadores  están sustentados en la teoría de la probabilidad y sus comportamientos  son aceptados o rechazados de acuerdo a las pruebas de hipotesis  desprendidas de sus respectivas distribuciones de probabilidad, o  es más simple afirmar que un estimador es una variable aleatoria que describe el comportamiento del conjunto poblacional en estudio.  El estimador es dinamico respecto a los tamaños de la muestra en estudio.  Y la teoría de la estadística matematica demuestra esa convergencia dinámica de un estimador en estudio hacia su respectivo parámetro poblacional. 
En este tema estudiaremos los estimadores puntuales de la media, máxima Verosimilitud, Metodo de los momentos, minimos cuadrados.  Finalizando con los análisis parametrico de los modelos lineales en su aceptación o rechazo de los respectivos estimadores cubriendo el cumplimiento de los supuestos clásicos del error que esta en función de los parámetros.  El error  ε =  f(α, β)  debe de cumplir algunos supuestos sobre la distribuión de probabilidad del témino de peturbación  ε.    Los supuestos deben de referirse a la media, varianza y covarianza de la peturbacion  (diferencia entre el valor observado y el estimado). 
El modelo clásico de regression  lineal establece que:
·         La media de la peturbación  E( ε ) =  0,  
·         VAR(ε) =  constante.
·          El error o perturbación no este relacionada con la variable   independiente x,   además
·          los valores de la peturbación  ε  sean independientes unos de otros.
“Dentro del ámbito de problemas que abarca la fiabilidad de sistemas, un amplio grupo está formado por el estudio de las duraciones de las componentes de equipos industriales. En general se supone que las duraciones de dichas componentes pueden describirse mediante una distribución de probabilidad conocida” entre ellas las distribuciones de probabilidad:  Weibull, exponencial, gamma; la teoría econométrica lineal menciona la t student para la aceptación (o rechazo) de un parámetro a nivel individual, se aplica  la Fisher para la aceptación  (o rechazo) global de todos los parámetros que definen un modelo de toma de decisiones en confiabilidad.  Y  la curva normal se aplica para el análisis del error de modelos en confiabilidad desprendidos de la linealidad.  Existen otras distribuciones de probabilidad generadas en modelos no lineales.
Interesa conocer la respuesta de ¿cuáles son los valores de los parámetros que definen dicha distribución?”   Estas distribuciones de probabilidad corresponden a modelos no lineales  que al linealizarlos por aplicaciones logarítmicas facilitan el cálculo de los parámetros.  En los modelos lineales un parámetro representa la variación de la variable aleatoria dependiente (variable endógena) respecto al cambio de una determinada variable aleatoria independiente (variable exógena).  En este sentido es necesario comentar que tales parámetros definen el comportamiento de la población  y los parámetros calculados para una muestra son aproximaciones de los parámetros del conjunto universo que contiene las posibles duraciones de todos los  componentes que se fabrican con idéntico diseño, mismos materiales y similares procesos de manufactura o sistemas de producción. Por situaciones económicas es difícil disponer de esa información sin  embargo  una muestra de tamaño n de esta población es un conjunto que contiene contiene  los n tiempos de fallo observados para un grupo seleccionado al azar de n componentes. 
En los objetivos de este libro 8  se pretende que al finalizarlo, el alumno deberá:
·         Conocer y manejar el concepto de estimador puntual, así como entender el significado de las propiedades de sesgo, varianza y consistencia de un estimador
·         Conocer y ser capaz de aplicar los distintos métodos de obtención de estimadores: momentos y mínimos cuadrados.
·         Ser capaz de interpretar el significado de los parámetros estimados en el contexto de los problemas de confiabilidad bajo los supuestos clásicos.
·         Aplicar e interpretar el significado de los parámetros bajo el no cumplimiento de los supuestos clásicos.
·         Analizar y resolver los problemas de fiabilidad cuando existe la heterocedasticidad.
·         Aplicar y resolver problemas de fiabilidad en un contexto de autocorrelacion.
·         Aplicar y resolver problemas de fiabilidad en condiciones de multicolinealidad.  
·         Conocer las especificidades de los problemas de estimación que se plantean en confiabilidad, en particular el problema de la censura en los datos.
·         Ser capaz de estimar las funciones de supervivencia y de razón de fallos acumulada mediante el método de Kaplan-Meier.
·         Entender el significado de la inferencia estadística y distinguir entre inferencia paramétrica e inferencia no paramétrica.
En el sentido antes descrito. En la parte B estudiamos la inferencia estadística, en la parte  C  analizamos el sesgo de un estimador y el la parte  D  se cubre el contraste de hipótesis conceptos fundamentales en la estimación de modelos de toma de decisiones.  Las partes anteriores se complementan con los videos seleccionadls por temas de YOUTUBE.   En la presentación de imágenes se aplican los  softwares Statistics, SPSS, Geogebra.
En la parte E  se estudia Los fundamentos de los modelos de decisión lineales incorporando el concepto del error o análisis de las perturbaciones, los modelos lineales cubren el análisis multivariable en el enfoque matricial con el cumplimiento de los supuestos clásicos, seguido de los videos de modelos lineales con una introducción a videos de análisis no paramétrico y modelos de mantenimiento.
En la parte F   se presenta un análisis paramétrico con el software SPSS seguido de videos seleccionados en Youtube en aplicaciones de esta herramienta fundamental de análisis estadístico.   En la parte  G  se analisa el comportamiento de modelos de decisiones en condiciones de heterocedasticidad, autocorrelacion y multicolinealidad, con videos de youtube en el no cumplimeinto de los supuestos clásicos, es decir videos de heterocedasticidad, autocorrelacion.   Estos esquemas de construcción de modelos se aplica el SPSS y Eviews.
En la parte  H  y considerando todo lo anterior, se aplican los modelos especiales de fiabilidad y Riesgo, esto es, aplicaciones de la distribución Weibull, la Loglogweibul, la Lognormal, aplicaciones de la chi cuadrada, t studente, F de Fisher-Snedecor, modelos de maxiverosimilitud y análisis de momentos.   En todos estos modelos se aplican los software SPSS, Minitab, Geogebra, el Equation Grapher en el calculo de areas con sus diferentes presentaciones graficas.   Se siguen aplicando videos del análisis Weibull, logweibul, y log normal.  Y finalmente  llegamos a la bibliografía.   

 

La inferencia estadística o predicción del comportamiento de la confiabilidad de un sistema productivo, puede realizarse siguiendo varios métodos complementarios. Si el interés se centra en el análisis del proceso de generación de electricidad en una central, su confiabilidad se estudia, a través del comportamiento global de un largo de un periodo de tiempo, recogiendo los datos en los tiempos que se producen los fallos, los tipos de fallo y sus causas, los tiempos de recuperación del sistema tras los fallos, etcetera. Si el interés se centra en la confiabilidad de una línea de productos, el procedimiento de la calidad total será tomar una muestra de dichos productos determinando cuales están defectuosos, no defectuodos, y en este último caso ponerlos en funcionamiento y recoger el dato de durabilidad de cada uno de ellos. Si el periodo de observación es limitado, al finalizar ese tiempo se recoge el dato del número de productos que han funcionado sin fallos de ese intervalo de tiempo de observación. Recogida la información en una base de datos comienza el análisis de escoger la función de distribución probabilística que se ajusta a esa base de datos y se pretende con la inferencia generalizar los resultados considerando un análisis del error. En esta perspectiva se pretende que la distribución escogida generalice sus resultados a toda una población o espacio poblacional E y de esta manera predecir el comportamiento de las muestras. Esto es, interesa obtener conclusiones no sólo para la muestra de productos en estudio, sino para toda la población
8
de productos con determinadas caracteristicas. En un lenguaje mas técnico interesa aparte de describir el comportamiento de los fallos del sistema industrial en estudio en un determinado periodo de tiempo, obtener conclusiones generales acerca de cuáles son las características del proceso de fallos de ese sistema productivo en estudio.
La inferencia estadística es un conjunto de métodos existentes del marco teorico de la Ingenieria Aplicada a la Confiabilidad y Riesgo, para entender mejor el comportamiento de un sistema y asi generalizar dicho análisis muestral a toda la población con sus respectivas conclusiones o resultados obtenidos a partir de la base de datos obtenidas de acuerdo a los objetivos general y especifico del problema de fiabilidad y riesgo que se pretende resolver. Estas conclusiones sobre la población pueden generar resultados aroximados y complementarios dependiendo de los diversos métodos de predicción que existen y de acuerdo a los supuestos básicos de los modelos de comportamiento que se estén utilizando, o dependiendo del método a seguir por ejemplo si existe homocedasticidad (varianza constante) o heterocedasticidad (varianza no constante), o si existe relación entre los errores (autocorrelacion) o si no existe esa dependencia de los errores respecto a los anteriores. En si, el Ingeniero en Confiabilidad y Riesgo deberá ser un estudioso permanente con creatividad para aportar nuevos elementos teoricos de la teoría de la predicción en los procesos de toma de decisiones hacia procesos de mantenimiento preventivo con minimización de costos en toda la perspectiva de la investigación de operaciones. En este sentido se requiere:
 Disponer de modelos del comportamiento adecuados a los objetivos que resolverán el problema en estudio, las variables en la población, los datos recogidos en la muestra de acuerdo a esos objetivos.
 Esscoger de acuerdo a esa base de datos y a los modelos de predicción seleccionados, los mejores valores aproximados de los parámetros que caracterizan dicho modelo (Problemas de estimación), ya sea mediante modelos de decisiones con hipótesis clásicas o escogiendo métodos donde los supuestos clásicos no funcionan.
 En el proceso de investigación científica para resolver problemas de fiabilidad y riesgo, se plantean hipótesis ligadas a la aceptación o rechazo de valores paramétricos de la población, mismos que establecen relaciones entre los parámetros, y el tiempo de estudio respecto a las fallas. Los objetivos ligados a ese proceso de investigación científica será realizar contraste de hipotesis que permiten el rechazo o aceptación de los valores paramétricos dentro del modelo de decisiones.
9
El tamaño de la muestra presenta un costo menor (10 por ciento del numero de elementos de la población por ejemplo), este costo es, en general mas economico, en relación con el tamaño de la población. Las conclusiones reflejaran un nivel de error minimo (contraste de hipotresis) y su predicción paramétrica y del modelo no serán con certeza al 100%. En condiciones de incertidumbre, los métodos de inferencia estadística permiten cuantificar, en términos de probabilidad, el grado de confiabilidad, verosimilitud o nivel de certeza en las conclusiones que buscaran de acuerdo al problema que se pretende resolver.
En la teoría muestral, el tamaño de la muestra debe ser representativa, considerando los errores muestrales y no muestrales, y se recuerda que si se dispone de mas información las conclusiones del modelo sean mas acertadas en mentenimientos preventivos con minimización de costos. El tamaño de muestra depende de cuál sea el problema que se pretende resolver y la estimación paramétrica con características de la población.
La representatividad de la muestra se consigue cuando esta es aleatoria (todos los miembros de la población tienen la misma probabilidad de ser elegidos para formar parte de la muestra) considerando el nivel de error muestral.     

You will get a PDF (4MB) file.

$ 10.00

$ 10.00

To be able to receive payments, please enter your payment details.

Discount has been applied.

Added to cart