jueves, 19 de julio de 2012

jueves, 14 de junio de 2012

EL MICROCHIP ....

Microchip

ESTADOS UNIDOS. La implantación obligatoria del microchip en Estados Unidos en 2013 forma parte de la Ley de Reforma Sanitaria o Reforma de Salud. El Gobierno lo dispuso para identificar las historias clínicas de los pacientes que asistan a centros de salud.

Si una persona se niega a la implantación del chip, no podrá ser atendida en ningún centro sanitario de los Estados Unidos, lo que representará la muerte por falta de atención sanitaria.

El Gobierno de Obama lo diseño como una forma de capturar los datos de los pacientes y agilizar su atención en los centros de salud. Sin embargo, de esta manera, el Gobierno podrá recabar otros datos que hacen a las tareas de inteligencia nacionales.

Es especialmente preocupante para personas que sean inmigrantes ilegales, por ejemplo, quienes deberán decidir entre quedar expuestos ante los registros norteamericanos o morir por falta de atención médica.

El microchip será implantado en la mano o en la cabeza de todos los habitantes de Estados Unidos, y su identificación se podrá realizar con sólo acercar un pequeño scaner que transmitirá a una computadora su información personal.
 
 
 

martes, 1 de mayo de 2012

CAPA 1 FISICA DEL MODELO OSI



El modelo de interconexión de sistemas abiertos, también llamado OSI (en inglés open system interconnection) es el modelo de red descriptivo creado por la Organización Internacional para la Estandarización en el año 1984. Es decir, es un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.

Historia
A principios de 1980 el desarrollo de redes surgió con desorden en muchos sentidos. Se produjo un enorme crecimiento en la cantidad y tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnologías de conexión, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red.
Para mediados de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de conexiones privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controlan todo uso de la tecnología. Las tecnologías de conexión que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.
Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de conexión como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (Systems Network Architecture) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.

Modelo de referencia OSI
Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.
El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.
Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.
Este modelo está dividido en siete capas:

Capa física
Es la que se encarga de las conexiones globales de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.
Sus principales funciones se pueden resumir como:
  • Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
  • Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
  • Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
  • Transmitir el flujo de bits a través del medio.
  • Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.
  • Garantizar la conexión (aunque no la fiabilidad de dicha conexión).

viernes, 13 de abril de 2012

MEMEORIA CACHE

En informática, la caché de CPU, es una caché1 (/ˈkæʃ/ o /kaʃ/) usada por la unidad central de procesamiento de una computadora para reducir el tiempo de acceso a la memoria. La caché es una memoria más pequeña y rápida, la cual almacena copias de datos ubicados en la memoria principal que se utilizan con más frecuencia. Es un conjunto de datos duplicados de otros originales, con la propiedad de que los datos originales son costosos de acceder, normalmente en tiempo, respecto a la copia en la caché. Cuando se accede por primera vez a un dato, se hace una copia en el caché; los accesos siguientes se realizan a dicha copia, haciendo que el tiempo de acceso medio al dato sea menor. Cuando el procesador necesita leer o escribir en una ubicación en memoria principal, primero verifica si una copia de los datos está en la caché. Si es así, el procesador de inmediato lee o escribe en la memoria caché, que es mucho más rápido que de la lectura o la escritura a la memoria principal. Nombre La palabra procede de la voz inglesa cache (/kæʃ/; «escondite secreto para guardar mercancías, habitualmente de contrabando») y esta a su vez de la francesa cache, (/kaʃ/; «escondrijo o escondite»). A menudo, en español se escribe con tilde sobre la «e» del mismo modo como el que se venía escribiendo con anterioridad al neologismo la palabra «caché» («distinción o elegancia» o «cotización de un artista»), proveniente de un étimo también francés, pero totalmente distinto: cachet, (/ka'ʃɛ/; «sello» o «salario»). La Real Academia Española sólo reconoce la palabra con tilde,1 aunque en la literatura especializada en Arquitectura de Computadoras (como, entre otros, las traducciones de los libros de Andrew S. Tanenbaum, John L. Hennessy y David A. Patterson) se emplea siempre la palabra sin tilde (aunque debería, además, escribirse en cursiva). Memoria caché o RAM caché Un caché es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de caché frecuentemente usados en las computadoras personales: memoria caché y caché de disco. Una memoria caché, llamada también a veces almacenamiento caché o RAM caché, es una parte de memoria RAM estática de alta velocidad (SRAM) más rápida que la lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria caché es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM. Cuando se encuentra un dato en la caché, se dice que se ha producido un acierto, siendo un caché juzgado por su tasa de aciertos (hit rate). Los sistemas de memoria caché usan una tecnología conocida por caché inteligente en la cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el caché constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias caché están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512 Kilobytes. La caché de disco trabaja sobre los mismos principios que la memoria caché, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la caché del disco para ver si los datos ya están ahí. La caché de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro. Composición interna La memoria caché está estructurada, una caché L2 de 512 KiB se distribuye en 16.384 filas y 63 columnas llamado Tag RAM, que indica a qué porción de la RAM se halla asociada cada línea de caché, es decir, traduce una dirección de RAM en una línea de caché concreta. Política de ubicación Decide dónde debe colocarse un bloque de memoria principal que entra en la memoria caché. Las más utilizadas son: Directa: Al bloque i-ésimo de memoria principal le corresponde la posición i módulo n, donde n es el número de bloques de la memoria caché. Asociativa: Cualquier bloque de memoria principal puede ir en cualquiera de los n bloques de la memoria caché. Asociativa por conjuntos: La memoria caché se divide en k conjuntos de bloques, así al bloque i-ésimo de memoria principal le corresponde el conjunto i módulo k. Dicho bloque de memoria podrá ubicarse en cualquier posición de ese conjunto. Política de extracción La política de extracción determina cuándo y qué bloque de memoria principal hay que traer a memoria caché. Existen dos políticas muy extendidas: Por demanda: Un bloque sólo se trae a memoria caché cuando ha sido referenciado y se produzca un fallo. Con prebúsqueda: Cuando se referencia el bloque i-ésimo de memoria principal, se trae además el bloque (i+1)-ésimo. Esta política se basa en la propiedad de localidad espacial de los programas. Política de reemplazo Véase también: Algoritmos de reemplazo de páginas Determina qué bloque de memoria caché debe abandonarla cuando no existe espacio disponible para un bloque entrante. Básicamente hay cuatro políticas que son: Aleatoria: El bloque es reemplazado de forma aleatoria. FIFO: Se usa un algoritmo First In First Out FIFO (primero en entrar es el primero en salir) para determinar qué bloque debe abandonar la caché. Este algoritmo generalmente es poco eficiente. Menos recientemente usado (LRU): Se sustituye el bloque que hace más tiempo que no se ha usado en la caché, traeremos a caché el bloque en cuestión y lo modificaremos ahí. Menos frecuencias usadas (LFU): Se sustituye el bloque que ha experimentado menos referencias.

martes, 10 de abril de 2012

MEMORIA PRINCIPAL


                                      Memoria principal

La memoria principal o primaria, también llamada memoria central, es aquella memoria de un ordenador, donde se encuentran el código de instrucciones y los datos del programa, que es ejecutado actualmente.
La estructura de la memoria principal se ha cambiada en la historia de las computadoras. Desde los años 1980 es prevalentemente una unidad dividida en celdas que se identifican mediante una dirección. Está formada por bloques de circuitos integrados o chips capaces de almacenar, retener o "memorizar" información digital, es decir, valores binarios; a dichos bloques tiene acceso el microprocesador de la computadora.
La MP se comunica con el microprocesador de la CPU mediante el bus de direcciones. El ancho de este bus determina la capacidad que posea el microprocesador para el direccionamiento de direcciones en memoria.
En algunas oportunidades suele llamarse "memoria interna" a la MP, porque a diferencia de los dispositivos de memoria secundaria, la MP no puede extraerse tan fácilmente por usuarios no técnicos.
La MP es el núcleo del sub-sistema de memoria de una computadora, y posee una menor capacidad de almacenamiento que la memoria secundaria, pero una velocidad millones de veces superior.

                                           Tipos

En las computadoras son utilizados dos tipos:
  1. ROM o memoria de sólo lectura (Read Only Memory). Viene grabada de fábrica con una serie de programas. El software de la ROM se divide en dos partes:
    1. Rutina de arranque o POST (Power On Self Test, auto diagnóstico de encendido): Realiza el chequeo de los componentes de la computadora; por ejemplo, circuitos controladores de video, de acceso a memoria, el teclado, unidades de disco,etc. Se encarga de determinar cuál es el hardware que está presente y de la puesta a punto de la computadora. Mediante un programa de configuración, el SETUP, lee una memoria llamada CMOS RAM (RAM de Semiconductor de óxido metálico). Ésta puede mantener su contenido durante varios años, aunque la computadora está apagada, con muy poca energía eléctrica suministrada por una batería, guarda la fecha, hora, la memoria disponible, capacidad de disco rígido, si tiene disquetera o no. Se encarga en el siguiente paso de realizar el arranque (booteo): lee un registro de arranque 'BR' (Boot Record) del disco duro o de otra unidad (como CD, USB, etc.), donde hay un programa que carga el sistema operativo a la RAM. A continuación cede el control a dicho sistema operativo y el computador queda listo para trabajar.
    2. Rutina BIOS o Sistema Básico de Entrada-Salida (Basic Input-Output System): permanece activa mientras se está usando el computador. Permite la activación de los periféricos de entrada/salida: teclado, monitor, ratón, etc.
  2. RAM o memoria de acceso aleatorio (Random Access Memory). Es la memoria del usuario que contiene de forma temporal el programa, los datos y los resultados que están siendo usados por el usuario del computador. En general es volátil, pierde su contenido cuando se apaga el computador, es decir que mantiene los datos y resultados en tanto el bloque reciba alimentación eléctrica, a excepción de la CMOS RAM.
Tanto la RAM como la ROM son circuitos integrados, llamados comúnmente chips. El chip o circuito integrado es una pequeña pastilla de material semiconductor (silicio) que contiene múltiples circuitos integrados, tales como transistores, entre otros dispositivos electrónicos, con los que se realizan numerosas funciones en computadoras y dispositivos electrónicos; que permiten, interrumpen o aumentan el paso de la corriente. Estos chips están sobre una tarjeta o placa.
El contenido de las memorias no es otra cosa que dígitos binarios o bits (binary digits), que se corresponden con dos estados lógicos: el 0 (cero) sin carga eléctrica y el 1 (uno) con carga eléctrica. A cada uno de estos estados se le llama bit, que es la unidad mínima de almacenamiento de datos.
El microprocesador direcciona las posiciones de la RAM para poder acceder a los datos almacenados en ellas y para colocar los resultados de las operaciones.
Al "bloque de MP", suele llamarse memoria RAM, por ser éste el tipo de chips de memoria que conforman el bloque, pero se le asocian también el chip CMOS, que almacena al programa BIOS del sistema y los dispositivos periféricos de la memoria secundaria (discos y otros periféricos), para conformar el sub-sistema de memoria del computador.
Los bloques RAM, los ROM y las memorias de almacenamiento secundario conforman el subsistema de memoria de una computadora.

domingo, 8 de abril de 2012

TOPOLOGIA DE REDES




La topología de red se define como la cadena de comunicación usada por los nodos que conforman una red para comunicarse. Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética, por la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando por el router, luego por un switch y este deriva a otro switch u otro router o sencillamente a los hosts (estaciones de trabajo), el resultado de esto es una red con apariencia de árbol porque desde el primer router que se tiene se ramifica la distribución de internet dando lugar a la creación de nuevas redes o subredes tanto internas como externas. Además de la topología estética, se puede dar una topología lógica a la red y eso dependerá de lo que se necesite en el momento.

La topologia de bus.



Red cuya topología se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre sí.
Construcción
Los extremos del cable se terminan con una resistencia de acople denominada terminador, que además de indicar que no existen más ordenadores en el extremo, permiten cerrar el bus por medio de un acople de impedancias.
Es la tercera de las topologías principales. Las estaciones están conectadas por un único segmento de cable. A diferencia de una red en anillo, el bus es pasivo, no se produce generación de señales en cada nodo o router.

Ventajas
*Facilidad de implementación y crecimiento.
*Simplicidad en la arquitectura.

Desventajas
  • Hay un límite de equipos dependiendo de la calidad de la señal.
  • Puede producirse degradación de la señal.
  • Complejidad de reconfiguración y aislamiento de fallos.
  • Limitación de las longitudes físicas del canal.
  • Un problema en el canal usualmente degrada toda la red.
  • El desempeño se disminuye a medida que la red crece.
  • El canal requiere ser correctamente cerrado (caminos cerrados).
  • Altas pérdidas en la transmisión debido a colisiones entre mensajes.
  • Es una red que ocupa mucho espacio.

Topologia en estrella.


Una red en estrella es una red en la cual las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de este. Los dispositivos no están directamente conectados entre sí, además de que no se permite tanto tráfico de información. Dado su transmisión, una red en estrella activa tiene un nodo central activo que normalmente tiene los medios para prevenir problemas relacionados con el eco.
Se utiliza sobre todo para redes locales. La mayoría de las redes de área local que tienen un enrutador (router), un conmutador (switch) o un concentrador (hub) siguen esta topología. El nodo central en estas sería el enrutador, el conmutador o el concentrador, por el que pasan todos los paquetes de usuarios.

Componente electrónico

Hub es el componente electrónico que permite un enlace físico en las redes de estrella.

 Ventajas

  • Si un PC se desconecta o se rompe el cable solo queda fuera de la red ese PC.
  • Fácil de agregar, reconfigurar arquitectura PC.
  • Fácil de prevenir daños o conflictos.
  • Centralización de la red

 Desventajas

  • Si el nodo central falla, toda la red deja de transmitir.
  • Es costosa, ya que requiere más cable que las topologías bus o anillo.
  • El cable viaja por separado del concentrador a cada computadora.

Topologia de anillo.


Topología de red en la que cada estación está conectada a la siguiente y la última está conectada a la primera. Cada estación tiene un receptor y un transmisor que hace la función de repetidor, pasando la señal a la siguiente estación.
En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones.
En un anillo doble (Token Ring), dos anillos permiten que los datos se envíen en ambas direcciones (Token passing). Esta configuración crea redundancia (tolerancia a fallos). Evita las colisiones.

    Ventajas

    • El sistema provee un acceso equitativo para todas las computadoras.
    • El rendimiento no decae cuando muchos usuarios utilizan la red.
    • Arquitectura muy sólida.
    • Entra siempre en conflictos

Desventajas

  • Longitudes de canales
  • El canal usualmente se degradará a medida que la red crece.
  • Difícil de diagnosticar y reparar los problemas.
  • Si una estación o el canal falla, las restantes quedan incomunicadas (Circuito unidireccional).

 topologia malla.


La topología de red mallada es una topología de red en la que cada nodo está conectado a todos los nodos. De esta manera es posible llevar los mensajes de un nodo a otro por diferentes caminos. Si la red de malla está completamente conectada, puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.

                                Funcionamiento

Esta topología, a diferencia de otras (como la topología en árbol y la topología en estrella), no requiere de un servidor o nodo central, con lo que se reduce el mantenimiento (un error en un nodo, sea importante o no, no implica la caída de toda la red).
Las redes de malla son auto ruteables. La red puede funcionar, incluso cuando un nodo desaparece o la conexión falla, ya que el resto de los nodos evitan el paso por ese punto. En consecuencia, la red malla, se transforma en una red muy confiable.
Es una opción aplicable a las redes sin hilos (wireless), a las redes cableadas (wired) y a la interacción del software de los nodos.
Una red con topología en malla ofrece una redundancia y fiabilidad superiores. Aunque la facilidad de solución de problemas y el aumento de la confiabilidad son ventajas muy interesantes, estas redes resultan caras de instalar, ya que utilizan mucho cableado. Por ello cobran mayor importancia en el uso de redes inalámbricas (por la no necesidad de cableado) a pesar de los inconvenientes propios de las redes sin hilos.
En muchas ocasiones, la topología en malla se utiliza junto con otras topologías para formar una topología híbrida.
Una red de malla extiende con eficacia una red, compartiendo el acceso a una infraestructura de mayor porte.

                     Ventajas de la red en malla

  • Es posible llevar los mensajes de un nodo a otro por diferentes caminos.
  • No puede existir absolutamente ninguna interrupción en las comunicaciones.
  • Cada servidor tiene sus propias comunicaciones con todos los demás servidores.
  • Si falla un cable el otro se hará cargo del trafico.
  • No requiere un nodo o servidor central lo que reduce el mantenimiento.
  • Si un nodo desaparece o falla no afecta en absoluto a los demás nodos.
  • Si desaparece no afecta tanto a los nodos de redes.

                 Desventajas de las redes en malla

El costo de la red puede aumentar en los casos en los que se implemente de forma alámbrica, la topología de red y las características de la misma implican el uso de más recursos.
En el caso de implementar una red en malla para atención de emergencias en ciudades con densidad poblacional de más de 5000 habitantes por kilómetro cuadrado, la disponibilidad del ancho de banda puede verse afectada por la cantidad de usuarios que hacen uso de la red simultáneamente; para entregar un ancho de banda que garantice la tasa de datos en demanda y, que en particular, garantice las comunicaciones entre organismos de rescate, es necesario instalar más puntos de acceso, por tanto, se incrementan los costos de implementación y puesta en marcha.

                                       Aplicación práctica

Un proyecto del MIT que desarrolla "one hundred dollar laptops" para las escuelas en países en desarrollo planea utilizar establecimiento de una red de malla para crear una infraestructura robusta y barata para los estudiantes que recibirán los ordenadores portátiles. Las conexiones instantáneas hechas por las computadoras portátiles reducirían la necesidad de una infraestructura externa tal como Internet para alcanzar todas las áreas, porque un nodo conectado podría compartir la conexión con los nodos próximos. Actualmente sólo se ha implementado este sistema en un país entero en todo el mundo. A través del Plan Ceibal, Uruguay ha hecho posible el sueño de miles de sus niños entregando una laptop a cada uno de ellos. Éstas corresponden a un programa originalmente pensado en Estados Unidos conocido como One Laptop Per Child (OLPC).[1]


                                        topologia en arbol.


Topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una variación de la red en bus, la falla de un nodo no implica interrupción en las comunicaciones. Se comparte el mismo canal de comunicaciones.
La topología en árbol puede verse como una combinación de varias topologías en estrella. Tanto la de árbol como la de estrella son similares a la de bus cuando el nodo de interconexión trabaja en modo difusión, pues la información se propaga hacia todas las estaciones, solo que en esta topología las ramificaciones se extienden a partir de un punto raíz (estrella), a tantas ramificaciones como sean posibles, según las características del árbol.
Los problemas asociados a las topologías anteriores radican en que los datos son recibidos por todas las estaciones sin importar para quien vayan dirigidos. Es entonces necesario dotar a la red de un mecanismo que permita identificar al destinatario de los mensajes, para que estos puedan recogerlos a su arribo. Además, debido a la presencia de un medio de transmisión compartido entre muchas estaciones, pueden producirse interferencia entre las señales cuando dos o más estaciones transmiten al mismo tiempo.

             Desventajas de Topología de Árbol

  • Se requiere mucho cable.
  • La medida de cada segmento viene determinada por el tipo de cable utilizado.
  • Si se viene abajo el segmento principal todo el segmento se viene abajo con él.
  • Es más difícil su configuración.

                    Ventajas de Topología de Árbol

  • Cableado punto a punto para segmentos individuales.
  • Soportado por multitud de vendedores de software y de hardware.

Existen otras topologias de redes o topologias mixtas pero estas son las mas comunes en redes lans, wans entre otras.

jueves, 29 de marzo de 2012

DISPOSITIVO DE RED "EL MODEM"

                                                                 EL MODEM

Un módem (Modulador Demodulador) es un dispositivo que sirve para enviar una señal llamada moduladora mediante otra señal llamada portadora. Se han usado módems desde los años 60, principalmente debido a que la transmisión directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente, por ejemplo, para transmitir señales de audio por el aire, se requerirían antenas de gran tamaño (del orden de cientos de metros) para su correcta recepción. Es habitual encontrar en muchos módems de red conmutada la facilidad de respuesta y marcación automática, que les permiten conectarse cuando reciben una llamada de la RTPC (Red Telefónica Pública Conmutada) y proceder a la marcación de cualquier número previamente grabado por el usuario. Gracias a estas funciones se pueden realizar automáticamente todas las operaciones de establecimiento de la comunicación.

                                                    ¿Cómo funciona?

El modulador emite una señal denominada portadora. Generalmente, se trata de una simple señal eléctrica sinusoidal de mucha mayor frecuencia que la señal moduladora. La señal moduladora constituye la información que se prepara para una transmisión (un módem prepara la información para ser transmitida, pero no realiza la transmisión). La moduladora modifica alguna característica de la portadora (que es la acción de modular), de manera que se obtiene una señal, que incluye la información de la moduladora. Así el demodulador puede recuperar la señal moduladora original, quitando la portadora. Las características que se pueden modificar de la señal portadora son:

-Amplitud, dando lugar a una modulación de amplitud (AM/ASK).
-Frecuencia, dando lugar a una modulación de frecuencia (FM/FSK).
- Fase, dando lugar a una modulación de fase (PM/PSK) También es posible una combinación de modulaciones o modulaciones más complejas como la modulación de amplitud en cuadratura.

                                                          Módems telefónicos

Su uso más común y conocido es en transmisiones de datos por vía telefónica. Las computadoras procesan datos de forma digital; sin embargo, las líneas telefónicas de la red básica sólo transmiten señales analógicas. Los métodos de modulación y otras características de los módems telefónicos están estandarizados por el UIT-T (el antiguo CCITT) en la serie de Recomendaciones "V". Estas Recomendaciones también determinan la velocidad de transmisión. Destacan:
-V.21. Comunicación Full Duplex entre dos módems analógicos realizando una variación en la frecuencia de la portadora de un rango de 300 baudios, logrando una transferencia de hasta 300 bps (bits por segundo).
- V.22. Comunicación Full Duplex entre dos módems analógicos utilizando una modulación PSK de 600 baudios para lograr una transferencia de datos de hasta 600 o 1200 bps.
- V.32. Transmisión a 9.600 bps. - V.32bis. Transmisión a 14.400 bps.
-V.34. Estándar de módem que permite hasta 28,8 Kbps de transferencia de datos bidireccionales (full-duplex), utilizando modulación en PSK.
- V.34bis. Módem construido bajo el estándar V34, pero permite una transferencia de datos bidireccionales de 33,6 Kbps, utilizando la misma modulación en PSK. (estándar aprobado en febrero de 1998)
- V.90. Transmisión a 56,6 kbps de descarga y hasta 33.600 bps de subida.
-V.92. Mejora sobre V.90 con compresión de datos y llamada en espera. La velocidad de subida se incrementa, pero sigue sin igualar a la de descarga
. Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de frecuencias situado por encima de la banda vocal (300 - 3.400 Hz) en líneas telefónicas o por encima de los 80 KHz ocupados en las líneas RDSI, y permiten alcanzar velocidades mucho mayores que un módem telefónico convencional. También poseen otras cualidades, como es la posibilidad de establecer una comunicación telefónica por voz al mismo tiempo que se envían y reciben datos.

domingo, 25 de marzo de 2012

DISPOSITIVOS DE RED EL ROUTER

¿Qué es un Router y Para Qué Sirve? Un “Router” es como su propio nombre indica, y fácilmente se puede traducir, un enrutador o encaminador que nos sirve para interconectar redes de ordenadores y que actualmente implementan puertas de acceso a internet como son los router para ADSL, los de Cable o 3G. Son ya hoy por hoy en su mayoría dispositivos de Hardware desarrollados por fabricantes como Cisco o Juniper y cuyo software esta desarrollado por esas mismas empresas, aunque también pueden ser ordenadores implementados con los protocolos de red (RIP, OSPF, IGRP, EIGRP y BGP) para los cuales existen ya paquetes (normalmente de software libre) con los distintos Drivers como pueden ser: Quagga, Vyatta, Zebra o ZebOs. Es decir, si tienes un solo ordenador lo normal sería que tuvieras un moden que te serviría para conectarte a internet a través de la red de tu proveedor en el caso que nos ocupa, pero si tienes más de un ordenador lo habitual es que tengas un router para que tu red pueda conectarse a la red de tu proveedor y este te conecte a internet compartiendo el ancho de banda que hallas contratado entre los distintos ordenadores de tu red. De esta manera el router se convierte en el intermediario entre tu red local y privada de tu casa e internet. Para ello el router posee dos direcciones Ip’s, una la Ip pública que nos otorga nuestro proveedor que pueden ser tanto estática (que es siempre la misma) como dinámica (que cambia aleatoriamente en función de las necesidades de nuestro proveedor) que suelen ser la mayoría; y otra Ip privada que es la que tiene o le damos para nuestra red interna o local y que nos servirá para centralizar las comunicaciones entre nuestras distintas máquinas u ordenadores. Partiendo de aquí lo que cobra especial importancia es el software con el cual controlaremos nuestra red. Debe de tener sistemas de seguridad para evitar los ataques externos procedentes de internet, permitirnos el control del ancho de banda que tenemos para repartir ya sea entre distintas aplicaciones u ordenadores, y regular el trafico de nuestra red de la manera más sencilla. Lógicamente los Router hechos por fabricantes ganan esta carrera, y como es normal hay fabricantes, y fabricantes como ocurre en el mundo de los ordenadores personales. El que mayor fama y reputación tiene hoy por hoy es Cisco sobre todo a raíz de la adquisición de Linksys (marca aun existente pero que en breve será sustituida oficialmente por Cisco) que viene a ser como nuestra Apple para el mundo de la informática personal, es decir, que marca la diferencia. Luego, eso sí, hay otros cuarenta mil fabricantes que sacan productos muy baratos que cumplen su cometido sin pena ni gloría. Linksys (ahora Cisco) fue una empresa pionera en añadir determinadas opciones o funciones a sus Routers no profesionales como es la tecnología QoS, DMZ … de las cuales os iremos hablando con detalle en sucesivas entregas para que las conozcáis pues de ellas dependen el que tengas un buen Router y podáis sacar el máximo partido a vuestra conexión y a vuestro Mac en nuestro caso particular que os animamos a utilizar los servidores que vienen con vuestro Mac OS X y otros que podéis añadir.

martes, 28 de febrero de 2012

viernes, 17 de febrero de 2012

FUNCIONAMIENTO MICROPROCESADOR INTEL CORE I5

Tecnología Turbo Boost

¿Qué es la tecnología Intel® Turbo Boost y cómo funciona?
La tecnología Intel Turbo Boost es ejecutar automáticamente el núcleo del procesador a una velocidad mayor que la frecuencia marcada si la parte opera bajo los límites de las especificaciones de alimentación, temperatura y corriente de la potencia de diseño térmico (TDP). Esto resulta en un mayor rendimiento de aplicaciones de un solo subproceso y de varios subprocesos.

¿Cuál es la diferencia entre la implementación original de la tecnología Intel® Turbo Boost y la tecnología Intel® Turbo Boost 2,0?
La tecnología Intel® Turbo Boost 2,0 aprovecha la eficacia energética incorporadas con tener un chip integrado en el procesador y gráficos. También es optimizado para el la nueva microarquitectura que se introdujo con el procesador Intel® Core™ i7-2xxx series y el Intel® Core™ i5-2xxx serie.

Qué familias de procesadores admiten la tecnología Intel® Turbo Boost?

Intel® Core™ i7 para equipos portátiles y procesadores para equipos de desktop
Procesador Intel® Core™ i7 Extreme Edition
Procesador Intel® Core™ i7 para equipos portátiles extreme edition
Intel® Core™ i5 para equipos portátiles y procesadores para equipos de desktop

Qué factores influyen en operación de la tecnología Intel® Turbo Boost?
Mientras que la disponibilidad de la tecnología Intel® Turbo Boost es independiente de la cantidad de núcleos activos, la operación depende del margen de crecimiento (núcleos que operan TDP) que esté disponible en uno o más núcleos. La cantidad de tiempo que el sistema pasa en Turbo Boost dependerá en última instancia de la carga de trabajo, el sistema operativo y el diseño de plataforma.

¿Cómo es la tecnología Intel® Turbo Boost activado o desactivado?
La tecnología Intel® Turbo Boost por lo general se activa de forma predeterminada mediante un conmutador en el BIOS, donde se puede activar o desactivar la operación. No hay ningún otra opción controlable que cambie la tecnología Intel Turbo Boost la operación ya sea en la configuración del hardware o Sistema operativo. Una vez que se habilita, la tecnología Intel Turbo Boost funciona automáticamente bajo control Sistema operativo.

¿Qué es frecuencia dinámica y cómo funciona?
Frecuencia dinámica trabaja bastante similar a la tecnología Intel® Turbo Boost ya que proporcionar dinámicamente un impulso al desempeño de gráficos cuando se están realizando tareas intensivas en gráficos. Al igual que la tecnología Intel Turbo Boost, debe haber energía y el margen térmico disponible para poder funcionar. Frecuencia dinámica se introdujo en procesadores de desktop con el Intel® Core™ i7-2xxx serie de procesadores y la Intel® Core™ i5-2xxx serie.

¿Cómo puedo activar frecuencia dinámica?
Frecuencia dinámica se activa automáticamente en la mayoría de los sistemas, de manera que no se requiere la intervención del usuario.

¿Cómo se frecuencia dinámica impacto operación de la tecnología Intel® Turbo Boost?
La frecuencia dinámica algoritmo compartir el poder trabaja en conjunto con la tecnología Intel® Turbo Boost para ofrecer un desempeño para las aplicaciones de uso intensivo gráficos cuando el poder y margen de ampliación térmica existe.

Es frecuencia turbo la misma para todos núcleos activos del procesador?
Sí.

Intel® Turbo Boost puede activarse o desactivarse la tecnología mediante el núcleo?
No. Algunas veces se pueden desactivar los núcleos en el BIOS. No obstante, no es recomendable si no hay una razón específica para hacerlo.

Existe un modo para especificar la frecuencia máxima la tecnología Intel® Turbo Boost?
No hay manera de especificar la frecuencia máxima. Una vez que el sistema se encuentra en Turbo Boost, el procesador determina automáticamente la frecuencia máxima a la que puede funcionar según las condiciones operativas.

al inicio de la página
¿Cómo puedo saber si la tecnología Intel® Turbo Boost está trabajando?
Intel® Turbo Boost Technology Monitor es una herramienta que se le mostrará la tecnología Intel Turbo Boost en acción. Visite el monitor de la tecnología Intel Turbo Boost página para ver más información con respecto a las familias de procesadores y los sistemas operativos compatibles, y a la descarga de la herramienta. Si el procesador no es compatible con la tecnología Intel Turbo Boost, la herramienta no funciona.



FUNCIONAMIENTO MICROPROCESADOR INTEL CORE I5




EN el anterior video vemos como intel va evolucionando en la arquitectura de los microprocesadores y agregando una nueva tecnologia el turbo boost...

jueves, 26 de enero de 2012

ARQUITECTURA DE COMPUTADORA

"ARQUITECTURA DE COMPUTADORAS".

Arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (UCP) trabaja internamente y accede a las direcciones de memoria.

También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.

El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).





Contenido
1 Introducción
2 Almacenamiento de operandos en la CPU 2.1 Ventajas de las arquitecturas
2.2 Desventajas de las arquitecturas

3 Véase también
4 Enlaces externos


Introducción

La implantación de instrucciones es similar al uso de una serie de desmontaje en una fábrica de manufacturación. En las cadenas de montaje, el producto pasa a través de muchas etapas de producción antes de tener el producto desarmado. Cada etapa o segmento de la cadena está especializada en un área específica de la línea de producción y lleva a cabo siempre la misma actividad. Esta tecnología es aplicada en el diseño de procesadores eficientes.

A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria, produce nuevos datos o información para uso externo.

Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes aspectos:
Almacenamiento de operativos en la CPU: dónde se ubican los operadores aparte de la substractora informativa (SI)
Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita en una instrucción típica. Normalmente son 0, 1, 2 y 3.
Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de direccionamiento disponibles).
Operaciones: Qué operaciones están disponibles en el conjunto de instrucciones.
Tipo y tamaño de operandos y cómo se especifican.

Almacenamiento de operandos en la CPU

La diferencia básica está en el almacenamiento interno de la CPU.

Las principales alternativas son:
Acumulador.
Conjunto de registros.
Memoria

Características: En una arquitectura de acumulador un operando está implícitamente en el acumulador siempre leyendo e ingresando datos. (Ej.: calculadora Standard -estándar-)

En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el tope de la pila. (Ej.: calculadora de pila HP)

La Arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o memoria.

Ventajas de las arquitecturas
Pila: Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas pueden dar una buena densidad de código.
Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control sencilla).
Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente tiene como estándar 32 registros. El acceso a los datos es más rápido.

Desventajas de las arquitecturas
Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código eficiente. También dificulta una implementación eficiente, ya que la pila llega a ser un cuello de botella es decir que existe dificultad para la transferencia de datos en su velocidad mk.
Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es el más alto en esta aproximación.
Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.

jueves, 5 de enero de 2012

LA ROBOTICA







Robótica


Un escritor checo definio una palabra que vendria a cambiar la concepción de esclavo a maquina servicial.

La Robótica es la ciencia y la tecnología de los robots. Se ocupa del diseño, manufactura y aplicaciones de los robots.1 2 La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial y la ingeniería de control.3 Otras áreas importantes en robótica son el álgebra, los autómatas programables y las máquinas de estados.

El término robot se popularizó con el éxito de la obra RUR (Robots Universales Rossum), escrita por Karel Capek en 1920. En la traducción al inglés de dicha obra, la palabra checa robota, que significa trabajos forzados, fue traducida al inglés como robot.


Historia de la robótica

La historia de la robótica ha estado unida a la construcción de "artefactos", que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su automóvil mediante telegrafía sin hilo, el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos.

Karel Čapek, un escritor checo, acuñó en 1921 el término "Robot" en su obra dramática "Rossum's Universal Robots / R.U.R.", a partir de la palabra checa robota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder, o simplemente aliviando de las labores caseras.


Fecha

Importancia

Nombre del robot

Inventor



Siglo I a. C. y antes

Descripciones de más de 100 máquinas y autómatas, incluyendo un artefacto con fuego, un órgano de viento, una máquina operada mediante una moneda, una máquina de vapor, en Pneumatica y Automata de Herón de Alejandría

Autonoma

Ctesibio de Alexandria, Filón de Bizancio, Herón de Alexandria, y otros



1206

Primer robot humanoide programable

Barco con cuatro músicos robotizados

Al Jazarí



c. 1495

Diseño de un robot humanoide

Caballero mecánico

Leonardo da Vinci



1738

Pato mecánico capaz de comer, agitar sus alas y excretar.

Digesting Duck

Jacques de Vaucanson



1800s

Juguetes mecánicos japoneses que sirven té, disparan flechas y pintan.

Juguetes Karakuri

Hisashige Tanaka



1921

Aparece el primer autómata de ficción llamado "robot", aparece en R.U.R.

Rossum's Universal Robots

Karel Čapek



1930s

Se exhibe un robot humanoide en la Exposición Universal entre los años 1939 y 1940

Elektro

Westinghouse Electric Corporation



1948

Exhibición de un robot con comportamiento biológico simple5

Elsie y Elmer

William Grey Walter



1956

Primer robot comercial, de la compañía Unimation fundada por George Devol y Joseph Engelberger, basada en una patente de Devol6

Unimate

George Devol



1961

Se instala el primer robot industrial

Unimate

George Devol



1963

Primer robot "palletizing"7

Palletizer

Fuji Yusoki Kogyo



1973

Primer robot con seis ejes electromecánicos

Famulus

KUKA Robot Group



1975

Brazo manipulador programable universal, un producto de Unimation

PUMA

Victor Scheinman



2000

Robot Humanoide capaz de desplazarse de forma bípeda e interactuar con las personas

ASIMO

Honda Motor Co. Ltd

Clasificación de los robots

[editar] Según su cronología

La que a continuación se presenta es la clasificación más común:
1ª Generación.

Manipuladores. Son sistemas mecánicos multifuncionales con un sencillo sistema de control, bien manual, de secuencia fija o de secuencia variable.
2ª Generación.

Robots de aprendizaje. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano. El modo de hacerlo es a través de un dispositivo mecánico. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza.
3ª Generación.

Robots con control sensorizado. El controlador es una computadora que ejecuta las órdenes de un programa y las envía al manipulador para que realice los movimientos necesarios.
4ª Generación.

Robots inteligentes. Son similares a los anteriores, pero además poseen sensores que envían información a la computadora de control sobre el estado del proceso. Esto permite una toma inteligente de decisiones y el control del proceso en tiempo real.

[editar] Según su arquitectura

La arquitectura, es definida por el tipo de configuración general del Robot, puede ser metamórfica. El concepto de metamorfismo, de reciente aparición, se ha introducido para incrementar la flexibilidad funcional de un Robot a través del cambio de su configuración por el propio Robot. El metamorfismo admite diversos niveles, desde los más elementales (cambio de herramienta o de efecto terminal), hasta los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. Los dispositivos y mecanismos que pueden agruparse bajo la denominación genérica del Robot, tal como se ha indicado, son muy diversos y es por tanto difícil establecer una clasificación coherente de los mismos que resista un análisis crítico y riguroso. La subdivisión de los Robots, con base en su arquitectura, se hace en los siguientes grupos: poliarticulados, móviles, androides, zoomórficos e híbridos.
1. Poliarticulados

En este grupo están los Robots de muy diversa forma y configuración cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas y con un número limitado de grados de libertad. En este grupo se encuentran los manipuladores, los Robots industriales, los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo.
2. Móviles

Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia.
3. Androides

Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemática del ser humano. Actualmente los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot.
4. Zoomórficos

Los Robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentados efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos caminadores multípedos son muy numeroso y están siendo experimentados en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, piloteando o autónomos, capaces de evolucionar en superficies muy accidentadas. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes.
5. Híbridos

corresponden a aquellos de difícil clasificación cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo uno de los atributos de los Robots móviles y de los Robots zoomórficos.

En la actualidad se estan creando robot humanoides que sea capaces de entender gestos y actitudes asi como tambien que puedan tomar sus propias decisiones.

martes, 3 de enero de 2012

INTELIGENCIA ARTIFICIAL


Concepto, Características y Metodologías de La Inteligencia Artificial

Concepto


La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reune varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar.

La de idea construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas.
Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.

La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la inteligencia humana. Se acude a sus técnicas cuando es necesario incorporar en un sistema informático,conocimiento o características propias del ser humano.

Podemos interrogar a algunas bases de datos de Internet en lenguaje natural, o incluso charlar con ellas nuestro idioma, porque por detrás se está ejecutando un programa de Inteligencia Artificial.

Otras herramientas inteligentes pueden utilizarse para escrutar entre los millones de datos que se generan en un banco en busca de patrones de comportamiento de sus clientes o para detectar tendencias en los mercados de valores.

Características de la Inteligencia Artificial.


1.Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos,también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.


2.El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).


3.Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.


4.El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.


5.Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.


Diferentes metodologías:

1.La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.

2.Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos.

Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora o inhibidora.
El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas.

Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.
Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc.

Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la entrada a las capas ocultas y de éstas hacia la salida.
El funcionamiento de una Red Neuronal es gobernado por reglas de propagación de actividades y de actualización de los estados.

Experiencia, Habilidades y Conocimiento

Los tipos de experiencia que son de interés en los sistemas basados en conocimiento, pueden ser clasificados en tres categorías: asociativa, motora y teórica.

Los sistemas basados en conocimiento son excelentes para representar conocimiento asociativo. Este tipo de experiencia refleja la habilidad heurística o el conocimiento que es adquirido mayoritariamente, a través de la observación. Puede ser que no se comprenda exactamente lo que ocurre al interior de un sistema (caja negra), pero se pueden asociar entradas o estímulos con salidas o respuestas, para resolver problemas que han sido previamente conocidos.

La experiencia motora es más física que cognitiva. La habilidad se adquiere fundamentalmente a través del ejercicio y la práctica física constante. Los sistemas basados en conocimiento no pueden emular fácilmente este tipo de experiencia, principalmente por la limitada capacidad de la tecnología robótica.

La experiencia teórica y el conocimiento profundo permite que los humanos puedan resolver problemas que no se han visto antes, es decir, no existe una posibilidad asociativa. El conocimiento teórico y profundo se adquiere a través de estudio y entrenamiento formal, así como por medio de la resolución directa de problemas.

Debido a su naturaleza teórica, este conocimiento se puede olvidar fácilmente, a no ser que se use en forma continua. Al momento, los sistemas convencionales basados en conocimiento tienen muchas dificultades para duplicar este tipo de experiencia. Sin embargo, los Sistemas de Razonamiento Basado en Modelos representan un notable intento de encapsular este conocimiento profundo y razonar con él.