TENDENCIAS DE SISTEMAS DISTRIBUIDOS


Los sistemas distribuidos se basan en los sistemas alojados en redes LAN.

La tendencia en el futuro es que veremos conectados entres sí muchos sistemas distribuidos LAN con el fin de formar sistemas distribuidos transparentes a través de todo el mundo. Pero para esto tendría que tomarse como punto de importancia el hecho de que no todos los países utilizan un mismo tipo caracteres para sus archivos, es decir, si en Latinoamérica utilizamos los códigos ASCII, puede ser que en otras partes del mundo no se utilice este mismo concepto, lo que produciría una incompatibilidad de datos.

Esto mejoraría circunstancialmente los actuales servidores de archivos puesto que se podrá adquirir gran cantidad de gigabytes de memoria, aunque todavía se presente el problema de que la memoria sea volátil, es decir, que cuando se apaga el sistema se borran los archivos.

Una nueva innovación en hardware son los discos ópticos que ahora pueden ser utilizados más de una vez. Aunque son un poco más caros que las cintas de video siempre han sido un aporte importante para los sistemas de archivos, principalmente en el soporte de backups.

En la actualidad, la mayor parte de los sistemas de cómputo no presentan tolerancia a fallas. Es común escuchar en las agencias bancarias la frase: "No hay sistema", por lo que tomamos este hecho como algo absolutamente normal. Salvo algunos sistemas especializados como los que se utilizan para el control de tráfico aéreo, otros sistemas no presentan este comportamiento que debería ser el óptimo.

SISTEMAS DISTRIBUIDOS Y LA SOCIEDAD

El impacto en los sistemas de información y telecomunicación ya es, y será, muy importante. Éstas son algunas de las características y tendencias que marcan estos cambios en la sociedad.

La idea de comunicar e intercambiar dinámicamente servicios e información dio origen a los sistemas distribuidos. Esta noción indica que las necesidades de un mundo real, los servicios deben adherirse o quitarse según sean requeridos. Los sistemas distribuidos permiten la existencia de una multiplicidad de estaciones de trabajo, las cuales ofrecen los recursos a los usuarios mediante un modelo de red. El usuario (sociedad) no sabe concretamente la maquina que ofrece servicio ni su dirección o ubicación geográfica; únicamente conoce su nombre o identificador y en muchos caso ni siquiera este ultimo. 

CONTROL SOD


El Control de Sistemas e Informática, consiste en examinar los recursos, las operaciones, los beneficios y los gastos de las producciones (servicios y/o productos de los Sistemas Informáticos), de los Organismos sujetos a control, con la finalidad de evaluar la eficacia y eficiencia Administrativa Técnica y/u Operacional de los Organismos, en concordancia con los principios, normas, técnicas y procedimientos normalmente aceptados. Asimismo de los Sistemas (Planes, Programas y Presupuestos, Diseño, Software, Hardware, Seguridad, Respaldos y otros) adoptados por la Organización para su dinámica de Gestión en salvaguarda de los Recursos del Estado.

Existe otra definición sobre el "control técnico" en materia de Sistemas e Informática, y esta se orienta a la revisión del Diseño de los Planes, Diseños de los Sistemas, la demostración de su eficacia, la Supervisión compulsa de rendimientos,

Productividad de la Gestión - Demanda llamada "Pruebas intermedias", el análisis de resultados, niveles y medios de seguridad, respaldo, y el almacenamiento. Así mismo medición de la vida útil del Sistema Informático adoptado por la Organización bajo control.

ESTÁNDARES ANMINISTRACION EN SISTEMAS DISTRIBUIDOS

Aquellas normas usuales, los propósitos, los objetivos, a alcanzar, los datos de carácter histórico las directrices que guían las actividades, las predicciones sobre el volumen de estas, las metas a alcanzar y aquellos índices que integran los planes , y todo dato o cifra que pueda emplearse como medida para cumplirlas, son considerados como estándares.

Los estándares deben abarcar las funciones básicas y áreas clave de los resultados logrados. Para construir los estacares, debe partirse del análisis de procesos, como las normas de trabajo o de costos y la recopilación de experiencias anteriores.

Los estándares puedes ser físicos, intangibles, de costos, de inversión, de recursos o medios de producción, de ingresos o de resultados, y expresarse cuantitativamente, en unidades numéricas, de uno u otro tipo(moneda, volumen, capacidad ), o cualitativos, cuando se establecen subjetivamente y lo que se mide y evalúa se refiere a cierta calidad(impacto en el mercado, nombre de la empresa, precio en la competencia).
Estos pueden representar calidad, mediante índices o calificaciones convencionales o por medio de coeficientes.

USOS Y TENDENCIAS DE LOS SISTEMAS DISTRIBUIDOS



ADMINISTRACIÓN DE SISTEMAS DISTRIBUIDOS

La administración de sistemas distribuidos incluye las actividades como: manejo de la versión y distribución del software, monitoreo de la utilización de los recursos y el mantenimiento del sistema de seguridad, entre otros.

Los administradores de sistemas distribuidos se ocupan de monitorear continuamente al sistema y se deben de asegurar de su disponibilidad. Para una buena administración, se debe de poder identificar las áreas que están teniendo problemas así como de la rápida recuperación de fallas que se puedan presentar. La información que se obtiene mediante el monitoreo sirve a los administradores para anticipar situaciones críticas. La prevención de estas situaciones ayuda a que los problemas no crezcan para que no afecten a los usuarios del sistema.


CONFIGURACION DE SOD

En este caso se configurara el sistema operativo LINUX. Primero debemos identificarnos en el sistema (si elegimos en la instalación que entrara automáticamente no será necesario). Para configurar el sistema necesitaremos una conexión a internet, así que lo primero que debes hacer es establecerla. Bien, entraremos en el menú Sistema, después vamos a Administración, y luego Soporte de idiomas. Ahora pulsaremos en el botón "Instalar/eliminar idiomas...". Se nos abrirá una ventana, donde debemos marcar nuestro idioma nativo (Castellano, español, inglés, etc.) y desmarcar los demás. Cuando terminemos pulsamos en aplicar y llevará a cabo ciertas acciones. Nos pedirá la contraseña de usuario. Se la damos y listo.

Administración y luego Orígenes del Software. Si nos pide la contraseña se la introducimos. Aquí configuraremos dos pestañas: Software de Ubuntu, y actualizaciones. Si disponemos de una conexión a internet permanente desmarcaremos los CD-ROM de Ubuntu (abajo) y marcaremos las 4 primeras casillas. En el servidor de descarga debe elegir, o bien el de nuestro país (España en mi caso) o bien el servidor principal, que también suele ir rápido. En la parte de actualizaciones marcaremos las dos primeras casillas (security y updates). La tercera queda a vuestra elección, aunque mi experiencia personal es que no es muy inestable.

También marcaremos la casilla de comprobar actualizaciones diariamente. Con esto ya tendremos configurados los repositorios. Ahora pasaremos a instalar el driver de la tarjeta gráfica. Si nuestra tarjeta gráfica es nVidia o ATI, el propio sistema nos mostrará un icono en la bandeja del sistema (parte superior derecha) informándonos de que existen controladores para instalar. Si queremos instalarlos, debemos ir al menú Sistema, Administración y luego Controladores de Hardware. Allí marcaremos el driver para instalarlo. Ahora pasaremos a instalar el driver de la tarjeta gráfica. Si nuestra tarjeta gráfica es nVidia o ATI, el propio sistema nos mostrará un icono en la bandeja del sistema (parte superior derecha) informándonos de que existen controladores para instalar. Si queremos instalarlos, debemos ir al menú Sistema, Administración y luego Controladores de Hardware. Allí marcaremos el driver para instalarlo.

MCD EN BASE A PAGINAS


El esquema de MCD propone un espacio de direcciones de memoria virtual que integre la memoria de todas las computadoras del sistema, y su uso mediante paginación. Las páginas quedan restringidas a estar necesariamente en un único ordenador. Cuando un programa intenta acceder a una posición virtual de memoria, se comprueba si esa página se encuentra de forma local. Si no se encuentra, se provoca un fallo de página, y el sistema operativo solicita la página al resto de computadoras.

DISEÑO, REPLICA, GRANULARIDAD, CONSISTENCIA, PROPIETARIO Y COPIAS.

El sistema operativo, y en el caso del protocolo de consistencia de entrada, por acciones de sincronización explícitas dentro del código del usuario. El hecho que la especificación se encuentre dispersa dificulta tanto la incorporación de nuevos protocolos de consistencia como la modificación de los ya existentes, debido a que los componentes tienen además de su funcionalidad básica responsabilidades que no les corresponden.

MCD EN BASE A VARIABLES

La compartición falsa se produce cuando dos procesos se pelean el acceso a la misma página de memoria, ya que contiene variables que requieren los dos, pero estas no son las mismas. Esto pasa por un mal diseño del tamaño de las paginas y por la poca relación existente entre variables de la misma página.

En los MCD basados en variables se busca evitar la compartición falsa ejecutando un programa en cada CPU que se comunica con una central, la que le provee de variables compartidas, administrando este cualquier tipo de variable, poniendo variables grandes en varias páginas o en la misma pagina muchas variables del mismo tipo, en este protocolo es muy importante declarar las variables compartidas.

MCD EN BASE A OBJETOS.

Una alternativa al uso de páginas es tomar el objeto como base de la transferencia de memoria. Aunque el control de la memoria resulta más complejo, el resultado es al mismo tiempo modular y flexible, y la sincronización y el acceso se pueden integrar limpiamente.

Otra de las restricciones de este modelo es que todos los accesos a los objetos compartidos han de realizarse mediante llamadas a los métodos de los objetos, con lo que no se admiten programas no modulares y se consideran incompatibles.

MODELOS DE CONSISTENCIA


La duplicidad de los bloques compartidos aumenta el rendimiento, pero produce un problema de consistencia entre las diferentes copias de la página en caso de una escritura. Si con cada escritura es necesario actualizar todas las copias, el envío de las páginas por la red provoca que el tiempo de espera aumente demasiado, convirtiendo este método en impracticable. Para solucionar este problema se proponen diferentes modelos de consistencia, que establezcan.

Nombramos algunos modelos de consistencia, del más fuerte al más débil: consistencia estricta, secuencial, causal, PRAM, del procesador, débil, de liberación y de entrada

ESTRICTA, CASUAL, SECUENCIAL, DEBIL, DE LIBERACION Y DE ENTRADA.

CONSISTENCIA CASUAL: La condición a cumplir para que unos datos sean causalmente consistentes es:
• Escrituras que están potencialmente relacionadas en forma causal deben ser vistas por todos los procesos en el mismo orden.
• Escrituras concurrentes pueden ser vistas en un orden diferente sobre diferentes máquinas.

Es permitida con un almacenamiento causalmente consistente, pero no con un almacenamiento secuencialmente consistente o con un almacenamiento consistente en forma estricta.

CONSISTENCIA SECUENCIAL: La consistencia secuencial es una forma ligeramente más débil de la consistencia estricta. Satisface la siguiente condición:

El resultado de una ejecución es el mismo si las operaciones (lectura y escritura) de todos los procesos sobre el dato fueron ejecutadas en algún orden secuencial
a) Un dato almacenado secuencialmente consistente.
b) Un dato almacenado que no es secuencialmente consistente.
CONSISTENCIA DÉBIL: Los accesos a variables de sincronización asociadas con los datos almacenados son secuencialmente consistentes.

Propiedades
No se permite operación sobre una variable de sincronización hasta que todas las escrituras previas de hayan completado.

 No se permiten operaciones de escritura o lectura sobre  datos hasta que no se hayan completado operaciones previas sobre variables de sincronización.

CONSISTECIA DE LIBERACION: Se basa en el supuesto de que los accesos a variables compartidas se protegen en secciones críticas empleando primitivas de sincronización, como por ejemplo locks. En tal caso, todo acceso esta precedido por una operación adquiere y seguido por una operación release. Es responsabilidad del programador que esta propiedad se cumpla en todos los programas.

MEMORIA COMPARTIDA DISTRIBUIDA (MCD)


Los sistemas de Memoria Compartida Distribuida (MCD), son sistemas que, mediante software, emulan semántica de memoria compartida  sobre hardware que ofrece soporte solo para comunicación mediante  paso de mensajes.

CONFIGURACIONES MCD:

Un computador paralelo es un conjunto de procesadores capaces de  cooperar en la solución de un problema.  
El problema se divide en partes. Cada parte se compone de un conjunto  de instrucciones. Las instrucciones de cada parte se ejecutan simultáneamente en diferentes CPUs.

DE CIRCUITOS BASADOS EN BUS, ANILLO O CONMUTADOR.
Arquitecturas de MCD: Existen varias formas de implantar físicamente memoria compartida distribuida, a continuación se describen cada una de ellas.

Memoria basada en circuitos: Existe una única área de memoria y cada micro tiene su propio bus de datos y direcciones (en caso de no tenerlo se vuelve un esquema centralizado)

MCD basada en bus: En este esquema los micros comparten un bus de datos y direcciones por lo que es más barato de implementar, se necesita tener una memoria caché grande y sumamente rápida.
MCD basada en anillos: Es más tolerante a fallos, no hay coordinador central y se privilegia el uso de la memoria más cercana
MCD basada en conmutador: Varios micros se conectan entre sí en forma de bus formando un grupo, los grupos están interconectados entre sí a través de un conmutador.

COPLANIFICACIÓN.


El concepto de coplanificación

·         Toma en cuenta los patrones de comunicación entre los procesos durante la planificación.
·         Debe garantizar que todos los miembros del grupo se ejecuten al mismo tiempo.
·         Se emplea una matriz conceptual donde:

·         Las filas son espacios de tiempo.
·         Las columnas son las tablas de procesos de los procesadores.
·         Cada procesador debe utilizar un algoritmo de planificación round robín:
·         Todos los procesadores ejecutan el proceso en el espacio “0” durante un cierto periodo fijo.
·         Todos los procesadores ejecutan el proceso en el espacio “1” durante un cierto periodo fijo, etc.
·         Se deben mantener sincronizados los intervalos de tiempo.

·         Todos los miembros de un grupo se deben colocar en el mismo número de espacio de tiempo pero en procesadores distintos.

SISTEMAS DISTRIBUIDOS DE TIEMPO REAL

La capacidad de procesamiento está distribuida entre varios computadores interconectados. Las actividades del sistema tienen requisitos de tiempo.
Necesidad de sistemas distribuidos:
·         Requisitos de procesamiento.
·         Distribución física del sistema.
·         Fiabilidad: Tolerancia a fallos.
·         Los sistemas distribuidos de tiempo real (SDTR) son complicados de realizar.
·         Se consideran sistemas débilmente acoplados.
·         Comunicación mediante mensajes
·         El tiempo de comunicación es significativo.

ASIGNACIÓN DE PROCESADORES


Son necesarios algoritmos para decidir cuál proceso hay que ejecutar y en qué máquina. Para el modelo de estaciones de trabajo:

·         Decidir cuándo ejecutar el proceso de manera local y cuándo es necesario buscar estaciones inactivas o no locales que tienen una conexión a la misma red pero fuera de ella.
Para el modelo de la pila de procesadores:
·         Decidir dónde ejecutar cada nuevo proceso respecto de la misma máquina que es la tabla (lista) de los procesos que se crean dentro de la maquina.

MODELOS Y ALGORITMOS CON SUS ASPECTOS DE DISEÑO E IMPLANTACIÓN

Los principales aspectos del Diseño de Algoritmos de Asignación de Procesadores  son los siguientes:
·         Algoritmos deterministas vs. Heurísticos.
·         Algoritmos centralizados vs. Distribuidos.
·         Algoritmos óptimos vs. Subóptimos.
·         Algoritmos locales vs. Globales.

Algoritmos iniciados por el emisor vs. Iniciados por el receptor.

Los algoritmos deterministas son adecuados cuando se sabe anticipadamente todo acerca del comportamiento de los procesos, pero esto generalmente no se da, aunque puede haber en ciertos casos aproximaciones estadísticas. Los algoritmos heurísticos son adecuados cuando la carga es impredecible.
Los diseños centralizados permiten reunir toda la información en un lugar y tomar una mejor decisión; la desventaja es que la máquina central se puede sobrecargar y se pierde robustez ante su posible falla.

 ‘’‘Aspectos de la Implantación de Algoritmos de Asignación de Procesadores’‘’
Casi todos los algoritmos suponen que las máquinas conocen su propia carga y que pueden informar su estado: La medición de la carga no es tan sencilla.

Un método consiste en contar el número de procesos (hay que considerar los procesos latentes no activos). Otro método consiste en contar solo los procesos en ejecución o listos.
También se puede medir la fracción de tiempo que la CPU está ocupada.
Las máquinas ejecutan sus algoritmos en forma asíncrona por lo que el sistema nunca se equilibra.
La mayoría de los algoritmos que intercambian información

Modelos de Asignación:
Generalmente se utilizan las siguientes hipótesis:
·         Todas las máquinas son idénticas (o al menos compatibles en el código); difieren a lo sumo en la velocidad.
·         Cada procesador se puede comunicar con los demás.
·         Las estrategias de asignación de procesadores se dividen en:
   No migratorias:
    Una vez colocado un proceso en una máquina permanece ahí hasta que termina.
    Migratorias:
    Un proceso se puede trasladar aunque haya iniciado su ejecución.
    Permiten un mejor balance de la carga pero son más complejas.

MODELOS DE PROCESADORES


La historia de los microprocesadores comienza en el año 1971, con el desarrollo por parte de Intel del procesador 4004, para facilitar el diseño de una calculadora.

La época de los PC (Personal Computer), podemos decir que comienza en el año 1978, con la salida al mercado del procesador Intel 8086.

DE ESTACIÓN DE TRABAJO.
El sistema consta de estaciones de trabajo (PC) dispersas conectadas entre sí mediante una red de área local (LAN).Pueden contar o no con disco rígido en cada una de ellas.

Los usuarios tienen:

·         Una cantidad fija de poder de cómputo exclusiva.
·         Un alto grado de autonomía para asignar los recursos de su estación de trabajo.
Uso de los discos en las estaciones de trabajo:

—Sin disco:
·         Bajo costo, fácil mantenimiento del hardware y del software, simetría y flexibilidad.

·         Gran uso de la red, los servidores de archivos se pueden convertir en cuellos de botella.
—Disco para paginación y archivos de tipo borrador:

·         Reduce la carga de la red respecto del caso anterior.
·         Alto costo debido al gran número de discos necesarios.
—Disco para paginación, archivos de tipo borrador y archivos binarios (ejecutables):
·         Reduce aún más la carga sobre la red.

·         Alto costo y complejidad adicional para actualizar los binarios.
—Disco para paginación, borrador, binarios y ocultamiento de archivos:
·         Reduce aún más la carga de red y de los servidores de archivos.
·         Alto costo.
·         Problemas de consistencia del caché.
—Sistema local de archivos completo:
·         Escasa carga en la red.
·         Elimina la necesidad de los servidores de archivos.
·         Pérdida de transparencia.

DE PILA DE PROCESADORES.
El modelo de la pila de procesadores
Se dispone de un conjunto de CPU que se pueden asignar dinámicamente a los usuarios según la demanda.Los usuarios no disponen de estaciones de trabajo sino de terminales gráficas de alto rendimiento.No existe el concepto de propiedad de los procesadores, los que pertenecen a todos y se utilizan compartidamente.

El principal argumento para la centralización del poder de cómputo como una pila de procesadores proviene de la teoría de colas:

    Llamamos “l” a la tasa de entradas totales de solicitudes por segundo de todos los usuarios combinados.
    Llamamos “m” a la tasa de procesamiento de solicitudes por parte del servidor.
    Para una operación estable debe darse que “m > l”:
Se pueden permitir pequeños lapsos de tiempo en los que la tasa de entrada exceda a la de servicio.
    Llamamos “T” al promedio de tiempo entre la emisión de una solicitud y la obtención de una respuesta completa:

-T = 1 / (m - l).
Cuando “l” tiende a “0”, “T” no tiende a “0”.

    Supongamos que tenemos “n” multiprocesadores personales, cada uno con cierto número de CPU y con su propio sistema de colas con tasas “ l ” y “ m ” y tiempo “T”:

Si reunimos todas las CPU y formamos una sola pila de procesadores tendremos un solo sistema de colas en vez de “n” colas ejecutándose en paralelo.

La tasa de entrada será “n l”, la tasa de servicio será “n m” y el tiempo promedio de respuesta será:
¡T1 = 1 / (n m - n l) = 1 / n ( m - l) = T / n.

Conclusión: si reemplazamos “n” pequeños recursos por uno grande que sea “n” veces más poderoso:
Podemos reducir el tiempo promedio de respuesta “n” veces.

El modelo de pila es más eficiente que el modelo de búsqueda de estaciones inactivas.
También existe el modelo híbrido que consta de estaciones de trabajo y una pila de procesadores.

HÍBRIDO.

 Modelo Híbrido:
Los trabajos interactivos se ejecutan en las estaciones de trabajo mientras que los no interactivos se ejecutan en la pila de procesadores.

• El Modelo de las Estaciones de trabajo suele coincidir en la actualidad con la mayoría de las organizaciones.

Cuando se utiliza este modelo hay una serie de aspectos a tener en cuenta:
• La asignación de Procesos a los Procesadores.
• Los Algoritmos de Distribución de la Carga.
• La Planificación de los Procesos en un Sistema Distribuido.

Procesos y procesadores en sistemas distribuidos


PROCESOS PROCESADORES CONCEPTOS BÁSICOS

Procesos:
Esta definición varía ligeramente en el caso de sistemas operativos multihilo, donde un proceso consta de uno o más hilos, la memoria de trabajo (compartida por todos los hilos) y la información de planificación. Cada hilo consta de instrucciones y estado de ejecución.
Los procesos son creados y destruidos por el sistema operativo, así como también este se debe hacer cargo de la comunicación entre procesos, pero lo hace a petición de otros procesos. El mecanismo por el cual un proceso crea otro proceso se denomina bifurcación (fork). Los nuevos procesos pueden ser independientes y no compartir el espacio de memoria con el proceso que los ha creado o ser creados en el mismo espacio de memoria.

En los sistemas operativos multihilo es posible crear tanto hilos como procesos. La diferencia estriba en que un proceso solamente puede crear hilos para sí mismo y en que dichos hilos comparten toda la memoria reservada para el proceso.

Procesadores:
Es el cerebro del computador, se encarga de convertir la materia prima de éste y dar un producto que puede ser sometido a otro procesamiento o ser el producto final del sistema o maquina. Realiza cálculos matemáticos a altísimas velocidades.

HILOS Y MULTIHILOS

Un hilo de ejecución, en sistemas operativos, es una característica que permite a una aplicación realizar varias tareas concurrentemente. Los distintos hilos de ejecución comparten una serie de recursos tales como el espacio de memoria, los archivos abiertos, situación de autenticación, etc. Esta técnica permite simplificar el diseño de una aplicación que debe llevar a cabo distintas funciones simultáneamente.

Los hilos de ejecución que comparten los mismos recursos, sumados a estos recursos, son en conjunto conocidos como un proceso. El hecho de que los hilos de ejecución de un mismo proceso compartan los recursos hace que cualquiera de estos hilos pueda modificar éstos. Cuando un hilo modifica un dato en la memoria, los otros hilos acceden e ese dato modificado inmediatamente.

Sincronización de hilos: todos los hilos comparten el mismo espacio de direcciones y otros recursos como pueden ser archivos abiertos. Cualquier modificación de un recurso desde un hilo afecta al entorno del resto de los hilos del mismo proceso. Por lo tanto, es necesario sincronizar la actividad de los distintos hilos para que no interfieran unos con otros o corrompan estructuras de datos.

Una ventaja de la programación multihilo es que los programas operan con mayor velocidad en sistemas de computadores con múltiples CPUs (sistemas multiprocesador o a través de grupo de máquinas) ya que los hilos del programa se prestan verdaderamente para la ejecución concurrente. En tal caso el programador necesita ser cuidadoso para evitar condiciones de carrera (problema que sucede cuando diferentes hilos o procesos alteran datos que otros también están usando), y otros comportamientos no intuitivos. Los hilos generalmente requieren reunirse para procesar los datos en el orden correcto. Es posible que los hilos requieran de operaciones atómicas para impedir que los datos comunes sean cambiados o leídos mientras estén siendo modificados, para lo que usualmente se utilizan los semáforos. El descuido de esto puede generar interbloqueo.

Formas de multihilos

Los sistemas operativos generalmente implementan hilos de dos maneras:
.Multihilo apropiativo: permite al sistema operativo determinar cuándo debe haber un cambio de contexto. La desventaja de esto es que el sistema puede hacer un cambio de contexto en un momento inadecuado, causando un fenómeno conocido como inversión de prioridades y otros problemas.

.Multihilo cooperativo: depende del mismo hilo abandonar el control cuando llega a un punto de detención, lo cual puede traer problemas cuando el hilo espera la disponibilidad de un recurso.

El soporte de hardware para multihilo desde hace poco se encuentra disponible. Esta característica fue introducida por Intel en el Pentium 4, bajo el nombre de HYPER TREADING .

MAPEO DE DIRECCIONES



El mapeo de direcciones corresponde en la relación de equivalencia entre un tipo de nombre a otro tipo de nombre; por ejemplo, de un nombre de usuario a un nombre de sistema.

MAPEO DE RUTAS
·      
              El mapeo de rutas consiste en la relación de equivalencia entre un tipo de ruta u otro tipo.
·         Recordar que las rutas consiste en la serie de ubicaciones para poder acceder a un recurso.
·         Otro nombre que recibe el mapeo de rutas es el de encaminamiento.

MODELO DE TERRY

El problema principal de cualquier sistema de nombre reside en encontrar de manera fácil, sencilla y rápida cualquier recurso a través del identificador (nombre) dado.

Para solucionar este problema, Terry y otros propusieron un modelo de facilidades que debe de poseer todo sistema de nombres, dichas características son las siguientes:

·         Facilidad centralizada de nombramiento
·         Facilidad replegada de nombramiento
·         Facilidad descentralizada de nombramiento
·         Facilidad distribuida de nombramiento
·         Facilidad jerárquica de nombramiento

RESOLUCION Y DISTRIBUCIÓN


Resolución de nombres de dominio

El mecanismo que consiste en encontrar la dirección IP relacionada al nombre de un ordenador se conoce como "resolución del nombre de dominio". La aplicación que permite realizar esta operación (por lo general, integrada en el sistema operativo se llama "resolución".

Cuando una aplicación desea conectarse con un host conocido a través de su nombre de dominio (por ejemplo, "es.kioskea.net"), ésta interroga al servidor de nombre de dominio definido en la configuración de su red. De hecho, todos los equipos conectados a la red tienen en su configuración las direcciones IP de ambos servidores de nombre de dominio del proveedor de servicios.

Entonces se envía una solicitud al primer servidor de nombre de dominio (llamado el "servidor de nombre de dominio principal"). Si este servidor de nombre de dominio tiene el registro en su caché, lo envía a la aplicación; de lo contrario, interroga a un servidor de nivel superior (en nuestro caso un servidor relacionado con el TLD ".net"). El servidor de nombre de nivel superior envía una lista de servidores de nombres de dominio con autoridad sobre el dominio (en este caso, las direcciones IP de los servidores de nombres de dominio principal y secundario para cómofunciona.net).

Entonces el servidor de nombres de dominio principal con autoridad sobre el dominio será interrogado y devolverá el registro correspondiente al dominio del servidor (en nuestro caso www).

Distribución
Una distribución de software basada en el núcleo Linux que incluye determinados paquetes de software para satisfacer las necesidades de un grupo específico de usuarios, dando así origen a ediciones domésticas, empresariales y para servidores. Por lo general están compuestas, total o mayoritariamente, de software libre, aunque a menudo incorporan aplicaciones o controladores propietarios.


SERVIDORES Y AGENTES DE NOMBRES

En la actualidad, la ICANN está formalmente organizada como una corporación sin fines de lucro y de utilidad pública. Está administrada por una Junta de Directores, que está compuesta por seis representantes de las organizaciones de apoyo, sub-grupos que se ocupan de las secciones específicas de las políticas de ICANN en virtud de la competencia, ocho representantes independientes del interés público general, seleccionados a través de un Comité de nominaciones que representan a todas las circunscripciones de la ICANN, y el Presidente y Director Ejecutivo, nombrado por el resto de la Junta.

En la actualidad hay tres organizaciones de apoyo: la GNSO (Generic Names Supporting Organization) se ocupa de la formulación de políticas sobre dominios genéricos de nivel superior, ccNSO (Country Code Names Supporting Organization) se ocupa de la elaboración de políticas relativas a códigos de países en dominios de nivel superior, la ASO (Address Supporting Organization) se ocupa de la formulación de políticas en direcciones IP.

ICANN también se basa en algunos comités consultivos para recibir asesoramiento sobre los intereses y necesidades de los interesados que no participen directamente en las organizaciones de apoyo. Entre ellos figuran el Comité Asesor Gubernamental (GAC), que está integrado por representantes de un gran número de gobiernos nacionales de todo el mundo; el ALAC (At-Large Advisory Comité), que está integrado por representantes de organizaciones de los distintos usuarios de Internet de todo el mundo; el sistema DNS y TLG (Technical Liaison Group) compuesto por representantes de otras organizaciones técnicas internacionales de Internet.

NOMINACION CARACTERISTICAS Y ESTRUCTURAS


Un nombre es más que una cadena de caracteres. Representa un punto de acceso hacia un objeto. La característica principal de un sistema de nombre es que no debe de presentar ambigüedades, para un momento dado, un nombre refiere a uno y sólo un recurso en el sistema.


TIPOS DE NOMBRES USUARIO Y DE SISTEMA

•         Identificadores de puertos y procesos.
•         Nombres textuales de servicios.
•         Identificadores de recursos.
•         Nombres de archivos.
•         Direcciones físicas y lógicas de redes.
•         El nombre de un objeto, por ejemplo un recurso o servidor; especifica lo que busca un proceso.
•         Una dirección especifica dónde se encuentra el objeto.
•         Una ruta especifica cómo llegar ahí.

La modificación no autorizada del iPhone OS constituye una fuente muy importante de inestabilidad, interrupciones de los servicios y otros problemas.
Se pueden clasificar a las violaciones de seguridad en tres categorías:
·         Liberación no autorizada de información. Ocurre cuando una persona no autorizada tiene la posibilidad de leer y tomar ventaja de la información almacenada en una computadora. También se incluye el uso no autorizado de un programa.

·         Modificación no autorizada de información. Este tipo de violación se da cuando una persona tiene la posibilidad de alterar la información almacenada en un sistema computacional.
·         Bloqueo no autorizado de servicios. Se da cuando una persona no autorizada bloquea la capacidad de algún usuario autorizado, a accesar la información almacenada en un sistema computacional.

La seguridad en los sistemas computacionales puede dividirse en dos tipos:
·         Seguridad externa (llamada comúnmente seguridad física), se encarga de regular el acceso al hardware del sistema, incluyendo: discos, cintas, reguladores y no-breaks, acondicionadores de aire, terminales, procesadores.

·         Seguridad interna se encarga del acceso y uso del software almacenado en el sistema. A diferencia de la seguridad física, existe el tema de autenticación, en el cual el usuario se registra (login) en el sistema para accesar a los recurso de hardware y software del mismo.

Servidor DNS
-Traducir su nombre de dominio en una dirección IP
-   Asignar nombres a todas las máquinas de una red y trabajar con nombres de dominio en lugar de IPs.

Un servidor DNS permite acceder a un dominio en internet entre los millones existentes. Básicamente su función es atender a las peticiones hechas por los distintos programas que acceden a internet y resolver la dirección IP asociada al dominio consultado. Cuando el servidor recibe una consulta realiza una búsqueda en caso de que ese servidor no disponga de la respuesta, el servidor comienza la búsqueda a través de uno o varios Servidores DNS hasta encontrar una respuesta positiva o negativa.

USOS DE LA SINCRONIZACIÓN

USOS DE LA SINCRONIZACION MANEJO DE CACHE, COMUNICACION EN GRUPO EXCLUSION MUTUA ELECCION TRANSACCIONES ATÓMICAS E INTERBLOQUEO



Sincronización:
La sincronización es la coordinación de procesos que se ejecutan simultáneamente para completar una tarea, con el fin de obtener un orden de ejecución correcto y evitar así estados inesperados.
---Comunicación  en los sistemas operativos distribuidos

Memoria Caché:
En los sistemas de archivos convencionales, el fundamento para la memoria caché es la reducción de la E/S de disco (lo que aumenta el rendimiento), en un SAD el objetivo es reducir el tráfico en la red.

La copia de memoria caché:
Conservar allí los bloques de disco de acceso más reciente, para así manejar localmente los accesos repetidos a la misma información y no aumentar el tráfico de la red. La caché es un área de memoria utilizada para agilizar los procesos de lectura-escritura.

Exclusión mutua:

La condición de exclusión mutua se aplica a los os que no pueden ser compartidos. Por ejemplo, varios procesos no pueden compartir simultáneamente una impresora.
Los archivos de sólo lectura son un buen ejemplo de recurso que puede compartirse. Si varios procesos intentan abrir un archivo de sólo lectura al mismo tiempo, puede concedérseles acceso al archivo de forma simultánea. Un proceso no necesita esperar nunca para acceder a un recurso compartible

Algoritmos de Elección:
Son los algoritmos para la elección de un proceso coordinador, iniciador, secuenciador. El objetivo de un algoritmo de elección es garantizar que iniciada una elección ésta concluya con el acuerdo de todos los procesos con respecto a la identidad del nuevo coordinador.

Transacción atómica, transacción o acción atómica:

La principal propiedad de la transacción atómica es el “todo o nada”: O se hace todo lo que se tenía que hacer como una unidad o no se hace nada.
Un esquema para garantizar la adecuada sincronización de la información en sistemas centralizados como distribuidos es el uso de transacciones.
Las transacciones manejan 4 propiedades básicas: atómicas, consistentes, aisladas y durables (ACID por sus siglas en inglés).
Las primitivas de las transacciones son:
BEGIN_TRANSACTION (inicio de transacción)
END_TRANSACTION (fin de transacción)
ABORT_TRANSACTION (deshacer operación)
READ (leer datos de un archivo u objeto)
WRITE (escribir datos a un archivo u objeto)

INTERBLOQUEO

Una situación de interbloqueo tiene lugar cuando ninguno de los procesos que compiten.
Por los recursos del sistema o interactúan entre sí puede avanzar por carecer de algún recurso o esperar a que se produzca algún tipo de evento.

El interbloqueo se define como el conjunto de procesos que compiten por los recursos  del sistema o bien se comunican unos con otros. A diferencia de otros problemas de la gestión de concurrente de procesos, para el caso general no existe una solución eficiente.

•      Nominación: En los sistemas distribuidos los nombres hacen referencia a cualquier entidad, ya sea un archivo, un periférico, un proceso, etc. que se pueden encontrar en máquinas remotas.
•      Los servidores de nombres ayudan a localizar fácilmente y hacer transparente el acceso a los recursos (transparencia de localización).