Sistemas Criticos

March 30, 2018 | Author: xanderamon | Category: Reliability Engineering, Software, Technology, Computing, Computing And Information Technology


Comments



Description

INTRODUCCION Los fallos de funcionamiento del software son relativamente comunes. En la mayoría de los casos, estos fallos provocan molestias, pero no daños graves ni a largo plazo. Sin embargo, en algunos sistemas un fallo de funcionamiento puede ocasionar pérdidas económicas significativas, daño físico o amenazas a la vida humana. Estos sistemas se conocen como Sistemas Críticos. La confianza de un usuario de un sistema crítico se mide principalmente por la confiabilidad que éste tenga en dicho sistema, basado principalmente en la disponibilidad, fiabilidad, seguridad y protección que el sistema le proporcione al usuario. Capítulo 3. SISTEMAS CRITICOS si estos sistemas no ofrecen sus servicios de la forma esperada pueden provocar graves problemas y pérdidas importantes. SISTEMAS CRITICOS . • Son sistemas técnicos o socio-técnicos de los cuales dependen las personas o los negocios. Definición de Sistemas Críticos • Son aquellos que tienen impacto directo en los procesos y/o productos. Capítulo 3.II. SISTEMAS CRITICOS A. SISTEMAS CRITICOS . productos químicos.B. Capítulo 3. • Sistemas de misión críticos: Sistemas cuyo fallo de funcionamiento puede provocar errores en algunas actividades dirigidas por objetivos.EJEMPLO: Sistema de navegación para una nave espacial. pérdida de vidas o daños graves al medio EJEMPLO: Un sistema de control para una planta de fabricación de ambiente. EJEMPLO: Sistema de cuentas bancarias. • Sistemas de negocio críticos: Sistemas cuyo fallo de funcionamiento pueden provocar costes muy elevados para el negocio que utiliza un sistema de éste tipo. Tipos Principales de Sistemas Críticos • Sistemas de seguridad críticos: Sistemas cuyo fallo puede provocar perjuicio. Confiabilidad = Fidelidad La fidelidad esencialmente significa el grado de confianza del usuario en que el sistema operará tal y como se espera de él y que no «fallará» al utilizarlo normalmente. Capítulo 3. «muy confiable» y «ultraconfiable» para reflejar los grados de confianza. CONFIABILIDAD DE UN SISTEMA La confiabilidad de un sistema informático es una propiedad del sistema que es igual a su fidelidad. Esta propiedad no se puede expresar numéricamente.II. sino que se utilizan términos relativos como «no confiable». SISTEMAS CRITICOS . SISTEMAS CRITICOS .Existen cuatro dimensiones principales de la confiabilidad que están interrelacionadas: Confiabilidad Disponibilidad Fiabilidad Seguridad Protección La capacidad del sistema para proporcionar servicios cuando son requeridos La capacidad del sistema para proporcionar servicios como han sido especificados La capacidad del sistema para funcionar sin fallos catastróficos La capacidad del sistema para protegerse a si mismo a instrusiones accidentales o premeditadas Capítulo 3. SISTEMAS CRITICOS .1. Incluye: • Corrección: Asegurar que los servicios que proporciona el sistema son los especificados.- Fiabilidad: Es la probabilidad de que. 2.- Disponibilidad: Es la probabilidad de que el sistema esté activo y en funcionamiento y sea capaz de proporcionar servicios útiles en cualquier momento. el sistema funcione correctamente tal y como espera el usuario. • Oportunidad: Asegurar que la información que proporciona el sistema se hace cuando es requerida. durante un determinado período de tiempo. • Precisión: Asegurar que la información se proporciona al usuario con el nivel de detalle adecuado. Capítulo 3. • Confidencialidad: Asegurar que sólo las personas autorizadas puedan acceder a la información. Incluye: • Integridad: Asegurar que el programa y los datos del sistema no resulten dañados.- Protección: Es una valoración de la probabilidad de que el sistema pueda resistir intrusiones accidentales o premeditadas.Seguridad: Es una valoración de la probabilidad de que el sistema cause daño a las personas o a su entorno.. SISTEMAS CRITICOS . 4.3. Capítulo 3. *Otras Propiedades. 1-Reparabilidad. SISTEMAS CRITICOS . Capítulo 3. Un software mantenible es un software que puede adaptarse para tener en cuenta los nuevos requerimientos con un coste razonable y con una baja probabilidad de introducir nuevos errores en el sistema al realizar los cambios correspondientes.. 2-Mantenibilidad. pero la interrupción causada por estos fallos se puede minimizar si el sistema se puede reparar rápidamente. Los fallos de funcionamiento del sistema son inevitables.. niveles altos de confiabilidad solamente pueden alcanzarse a costa del rendimiento del sistema. SISTEMAS CRITICOS . Por lo general. 4-Tolerancia a errores. potencialmente. Capítulo 3. La supervivencia es la capacidad de un sistema para continuar ofreciendo su servicio mientras está siendo atacado y.3-Supervivencia. Esto es relativo ya que es mejor prevenir fallos. Esta propiedad puede considerarse como parte de la usabilidad y refleja hasta qué punto el sistema ha sido diseñado para evitar y tolerar un error en la entrada de datos del usuario al sistema. mientras parte del sistema está inhabilitado. El incremento de la confiabilidad de un sistema puede hacer crecer significativamente los costes de desarrollo. SISTEMAS CRITICOS . Por ejemplo. y un sistema B falla una vez al mes. DISPONIBILIAD Y FIABILIDAD La disponibilidad y fiabilidad de un sistema son propiedades que están estrechamente relacionadas y que pueden expresarse como probabilidades numéricas.III. mientras que B tarda 10 minutos en reinicializarse.230 minutos sin servicio). Capítulo 3. entonces A claramente es más fiable que B. algunos sistemas pueden tener como requisito una disponibilidad alta. entonces los requerimientos de disponibilidad son altos. Si un sistema A falla una vez al año. No se puede deducir que los sistemas fiables estarán siempre disponibles y viceversa. La disponibilidad de B a lo largo del año (120 minutos de tiempo sin servicio) es mucho mejor que la del sistema A (4. pero una fiabilidad mucho más baja. Si los usuarios esperan un servicio continuo. Sin embargo. supóngase que el sistema A tarda tres días en recuperarse después de un fallo. Capítulo 3.La fiabilidad y la disponibilidad de un sistema se pueden definir de forma más precisa como sigue: 1. Disponibilidad. 2. en cierto momento. La probabilidad de que un sistema. Fiabilidad. esté en funcionamiento y sea capaz de proporcionar los servicios solicitados. SISTEMAS CRITICOS . La probabilidad de que se tengan operaciones libres de caídas durante un tiempo definido en un entorno dado para un propósito específico. Capítulo 3. Tolerancia a defectos. Evitación de defectos. SISTEMAS CRITICOS . Se utilizan técnicas que minimizan la posibilidad de cometer equivocaciones y/o detectan las equivocaciones antes de que provoquen la introducción de defectos en el sistema.Enfoques complementarios usados para mejorar la fiabilidad de un sistema: 1. 2. Detección y eliminación de defectos. Se usan técnicas que aseguran que los defectos en un sistema no conducen a errores del sistema o que aseguran que los errores del sistema no dan lugar a fallos de funcionamiento del sistema. 3. Se usan técnicas de verificación y validación que incrementan la posibilidad de que los defectos se detecten y eliminen antes de utilizar el sistema. • Error humano o equivocacion: Comportamiento humano que tiene como consecuencia la introduccion de defectos en el sistema. • Defecto del sistema: Caracteristica de un sistema software que puede dar lugar a un error del sistema. • Error del sistema: Estado erroneo del sistema que puede dar lugar a un comportamiento del mismo inesperado por sus usuarios.Terminología de la fiabilidad • Fallo del sistema: Evento que tiene lugar en algun instante cuando el sistema no funciona como esperan sus usuarios. SISTEMAS CRITICOS . Capítulo 3. el sistema nunca debería provocar daños en las personas o en el entorno del sistema incluso si éste falla. SISTEMAS CRITICOS . sistemas de control de procesos en plantas químicas y farmacéuticas y sistemas de control de automóviles. Esto es. Capítulo 3. SEGURIDAD Los sistemas de seguridad críticos son sistemas en los que es esencial que el funcionamiento del sistema sea siempre seguro.IV. Ejemplos de sistemas de seguridad críticos son el control y monitorización de sistemas de un avión. El software de seguridad crítico se divide en dos clases: 1. lo que puede provocar lesiones personales o daños en el entorno. SISTEMAS CRITICOS . pero son distintos atributos de confiabilidad. El mal funcionamiento de dicho software puede ocasionar un mal funcionamiento del hardware. Software de seguridad crítico primario. Desde luego. Es el software que indirectamente puede provocar lesiones. Es el software que está embebido como un controlador en un sistema. La fiabilidad y la seguridad del sistema están relacionadas. Capítulo 3. un sistema de seguridad crítico es fiable si está de acuerdo con su especificación y funciona sin fallos. 2. Software de seguridad critico secundario. Evitación de contingencias. El sistema incluye características de protección que minimizan el daño que puede resultar de un accidente. El sistema se diseña para que las contingencias se detecten y eliminen antes de que provoquen un accidente. Capítulo 3. 3.Tres formas complementarias para garantizar la seguridad: 1. Daño: Medida de la perdida de un percance. Detección y eliminación de contingencias. 2. Limitación de daños. Contigencia: Una condicion con el potencial de causar o contribuir a un accidente. SISTEMAS CRITICOS . El sistema se diseña para que las contingencias se eviten. SISTEMAS CRITICOS . pero la conexión a Internet también significa que el sistema puede ser atacado por personas con intenciones hostiles. Las conexiones a Internet proporcionan funcionalidades del sistema adicionales.V. La protección ha adquirido cada vez más importancia en tanto que más y más sistemas se han conectado a Internet. PROTECCION La protección es un atributo del sistema que refleja su capacidad para protegerse de ataques externos que pueden ser accidentales o provocados. Capítulo 3. Evitar la vulnerabilidad. El sistema se diseña para que las vulnerabilidades no ocurran. SISTEMAS CRITICOS . Capítulo 3. 2. 3. Limitación de la exposición.Aproximaciones comparables que se utilizan para garantizar la protección de un sistema: 1. Vulnerabilidad: Debilidad en un sistema Informatico que se puede aprovechar para provocar pérdidas o daños. El sistema se diseña para detectar vulnerabilidades y eliminarlas antes de que provoquen una exposición del sistema. Ataque: Aprovechamiento de la vulnerabilidad de un sistema. Las consecuencias de un ataque exitoso se minimizan. Detección y neutralización de ataques. es necesario adoptar una aproximación a las interacciones entre las tecnologías  y las personas para el diseño del sistema. según las necesidades y requerimientos establecidos. además una falla en el sistema puede ser mucho más costosa que el hacer confiable al sistema. La gran mayoría de las vulnerabilidades en los sistemas informáticos se originan en fallos humanos en lugar de en problemas técnicos. No todas las propiedades de la confiabilidad son aplicables a todos los sistemas. Es importante decidir qué tan confiable debemos hacer nuestro sistema. teniendo en cuenta que las personas forman parte del sistema así como el hardware y el software. Es importante desarrollar sistemas con un grado razonable de confiabilidad pues los usuarios prefieren sistemas fiables. Capítulo 3. disponibles y seguros. SISTEMAS CRITICOS CONCLUSION .Para mejorar la confiabilidad. SISTEMAS CRITICOS ¿? .
Copyright © 2024 DOKUMEN.SITE Inc.