domingo, 12 de octubre de 2014

SMTP

SMTP

 
 
 
El Simple Mail Transfer Protocol (SMTP) (Protocolo para la transferencia simple de correo electrónico), es un protocolo de red utilizado para el intercambio de mensajes de correo electrónico entre computadoras u otros dispositivos (PDA, teléfonos móviles, etc.). Fue definido en el RFC 2821 y es un estándar oficial de Internet.
El funcionamiento de este protocolo se da en línea, de manera que opera en los servicios de correo electrónico. Sin embargo, este protocolo posee algunas limitaciones en cuanto a la recepción de mensajes en el servidor de destino (cola de mensajes recibidos). Como alternativa a esta limitación se asocia normalmente a este protocolo con otros, como el POP o IMAP, otorgando a SMTP la tarea específica de enviar correo, y recibirlos empleando los otros protocolos antes mencionados (POP O IMAP).
 

HISTORIA
En 1982 se diseñó el primer sistema para intercambiar correos electrónicos en ARPANET, definido en los Request for comments RFC 821 y RFC 822. La primera de ellas define este protocolo y la + SMTP se basa en el modelo cliente-servidor, donde un cliente envía un mensaje a uno o varios receptores. La comunicación entre el cliente y el servidor consiste enteramente en líneas de texto compuestas por caracteres ASCII. El tamaño máximo permitido para estas líneas es de 1000 caracteres.
Las respuestas del servidor constan de un código numérico de tres dígitos, seguido de un texto explicativo. El número va dirigido a un procesado automático de la respuesta por autómata, mientras que el texto permite que un humano interprete la respuesta. En el protocolo SMTP todas las órdenes, réplicas o datos son líneas de texto, delimitadas por el carácter <CRLF>. Todas las réplicas tienen un código numérico al comienzo de la línea.


Fuente de Imagen; https://www.google.com.mx/
 


LAN

LAN



¿QUÉ SIGNIFICA LAN?:
Local Area Network, Red de Area Local

LAN:

Una LAN conecta varios dispositivos de red en una area de corta distancia (decenas de metros) delimitadas únicamente por la distancia de propagación del medio de transmisión [coaxial (hasta 500 metros), par trenzado (hasta 90 metros) o fibra óptica [decenas de metros], espectro disperso o infrarrojo [decenas de metros]).
Una LAN podria estar delimitada también por el espacio en un edificio, un salón, una oficina, hogar…pero a su vez podría haber varias LANs en estos mismo espacios. En redes basadas en IP, se puede concebir una LAN como una subred, pero esto no es necesariamente cierto en la práctica.
Las LAN comúnmente utilizan las tecnologías Ethernet, Token Ring, FDDI (Fiber Distributed Data Interface) para conectividad, así como otros protocolos tales como Appletalk, Banyan Vines, DECnet, IPX, etc.

 
 
Fuente de Imagen; https://www.google.com.mx/

TELNET


TELNET


 

Telnet (TELecommunication NETwork) es el nombre de un protocolo de red que nos permite viajar a otra máquina para manejarla remotamente como si estuviéramos sentados delante de ella. También es el nombre del programa informático que implementa el cliente. Para que la conexión funcione, como en todos los servicios de Internet, la máquina a la que se acceda debe tener un programa especial que reciba y gestione las conexiones. El puerto que se utiliza generalmente es el 23.

FUNCIONAMIENTO;

Telnet sólo sirve para acceder en modo terminal, es decir, sin gráficos, pero es una herramienta muy útil para arreglar fallos a distancia, sin necesidad de estar físicamente en el mismo sitio que la máquina que los tenía. También se usaba para consultar datos a distancia, como datos personales en máquinas accesibles por red, información bibliográfica, etc.
Aparte de estos usos, en general telnet se ha utilizado (y aún hoy se puede utilizar en su variante SSH) para abrir una sesión con una máquina UNIX, de modo que múltiples usuarios con cuenta en la máquina, se conectan, abren sesión y pueden trabajar utilizando esa máquina. Es una forma muy usual de trabajar con sistemas UNIX.




PROBLEMAS DE SEGURIDAD Y SSH;

Su mayor problema es de seguridad, ya que todos los nombres de usuario y contraseñas necesarias para entrar en las máquinas viajan por la red como texto plano (cadenas de texto sin cifrar). Esto facilita que cualquiera que espíe el tráfico de la red pueda obtener los nombres de usuario y contraseñas, y así acceder él también a todas esas máquinas. Por esta razón dejó de usarse, casi totalmente, hace unos años, cuando apareció y se popularizó el SSH, que puede describirse como una versión cifrada de telnet -actualmente se puede cifrar toda la comunicación del protocolo durante el establecimiento de sesión (RFC correspondiente, en inglés- si cliente y servidor lo permiten, aunque no se tienen ciertas funcionalidad extra disponibles en SSH).

TELNET EN LA ACTUALIDAD;

Hoy en día este protocolo también se usa para acceder a los BBS, que inicialmente eran accesibles únicamente con un módem a través de la línea telefónica. Para acceder a un BBS mediante telnet es necesario un cliente que dé soporte a gráficos ANSI y protocolos de transferencia de ficheros. Los gráficos ANSI son muy usados entre los BBS. Con los protocolos de transferencia de ficheros (el más común y el que mejor funciona es el ZModem) podrás enviar y recibir ficheros del BBS, ya sean programas o juegos o ya sea el correo del BBS (correo local, de FidoNet u otras redes).

SEGURIDAD;

Hay 3 razones principales por las que el telnet no se recomienda para los sistemas modernos desde el punto de vista de la seguridad:
 
Los dominios de uso general del telnet tienen varias vulnerabilidades descubiertas sobre los años, y varias más que podrían aún existir.

Telnet, por defecto, no cifra ninguno de los datos enviados sobre la conexión (contraseñas inclusive), así que es fácil interferir y grabar las comunicaciones, y utilizar la contraseña más adelante para propósitos maliciosos.

Telnet carece de un esquema de autentificación que permita asegurar que la comunicación esté siendo realizada entre los dos anfitriones deseados, y no interceptada entre ellos.

 En ambientes donde es importante la seguridad, por ejemplo en el Internet público, telnet no debe ser utilizado. Las sesiones de telnet no son cifradas. Esto significa que cualquiera que tiene acceso a cualquier router, switch, o gateway localizado en la red entre los dos anfitriones donde se está utilizando telnet puede interceptar los paquetes de telnet que pasan cerca y obtener fácilmente la información de la conexión y de la contraseña (y cualquier otra cosa que se mecanografía) con cualesquiera de varias utilidades comunes como tcpdump y Wireshark.


Estos defectos han causado el abandono y despreciación del protocolo telnet rápidamente, a favor de un protocolo más seguro y más funcional llamado SSH, lanzado en 1995. SSH provee de toda la funcionalidad presente en telnet, la adición del cifrado fuerte para evitar que los datos sensibles tales como contraseñas sean interceptados, y de la autentificación mediante llave pública, para asegurarse de que el computador remoto es realmente quién dice ser.

Los expertos en seguridad computacional, tal como el instituto de SANS, y los miembros del newsgroup de comp.os.linux.security recomiendan que el uso del telnet para las conexiones remotas debería ser descontinuado bajo cualquier circunstancia normal.

Cuando el telnet fue desarrollado inicialmente en 1969, la mayoría de los usuarios de computadoras en red estaban en los servicios informáticos de instituciones académicas, o en grandes instalaciones de investigación privadas y del gobierno. En este ambiente, la seguridad no era una preocupación y solo se convirtió en una preocupación después de la explosión del ancho de banda de los años 90. Con la subida exponencial del número de gente con el acceso al Internet, y por la extensión, el número de gente que procura crackear los servidores de otra gente, telnet podría no ser recomendado para ser utilizado en redes con conectividad a Internet.


Fuente de Imagen; https://www.google.com.mx/

AOL


OAL



OAL anteriormente conocida como America Online, es una empresa de servicios de internet y medios con sede en Nueva York. Ha vendido franquicias de sus servicios a empresas en varios países alrededor del mundo o establecido versiones internacionales.

HISTORIA;

AOL comenzó como empresa de breve duración llamada Servicios Informáticos de Quantum (o QCS), fundados por Bill von Meister. Su único producto era un servicio en línea llamado Gameline para la consola Atari 2600 después de que la idea de von Meister de comprar música en demanda fue rechazada por Warner Brothers. (Klein, 2003) Los suscriptores compraban un módem a la compañía por $49.95 y pagaban una cuota inicial de $15. Gameline permitía a los abonados descargar juegos y tener un seguimiento de sus puntuaciones $1 por juego. Si el teléfono se desconectaba, el juego permanecería en módulo maestro de GameLine y era jugable hasta que el usuario apagaba la consola o se descargaba otro juego

 En 1983, la compañía estaba casi en la bancarrota, y un inversionista en el control de video, Frank Caufield, tenía un amigo, Jim Kimsey, traído como consultor de fabricación, que el mismo año, trajo a Steve Case a la compañía como empleado de tiempo completo, para la comercialización de las recomendaciones comunes de von Meister y de Kimsey. Kimsey se empezó a sentir bien en el cuadro superior (director ejecutivo) de los servicios informáticos, nuevamente retitulados de Quantum en 1985, después de que dejaran a von Meister apartado de la compañía.
 


 

El mismo Case creció rápidamente a través de las filas; Kimsey lo promovió al vice presidente de la comercialización poco después de que se convirtiera en el director ejecutivo, y más adelate lo promovió a vicepresidente ejecutivo en 1987. Kimsey pronto comenzó a preparar a Case para ascender a la fila del director ejecutivo, que lo hizo cuando Kimsey se retiró en 1991.

 Kimsey cambió la estrategia de la compañía, y en 1985 lanzó una clase de mega-BBS para las computadoras Commodore 64 y 128, originalmente llamado Quantum Link. El software del acoplamiento de Quantum fue licenciado de PlayNet, Inc. en mayo de 1988, Quantum y edición personal lanzada Apple de AppleLink para las computadoras de Apple II y del Macintosh. Después de que las dos compañías dividieran maneras en octubre de 1989, Quantum cambió el nombre del servicio a America Online.
En agosto de 1988, Quantum lanzó el acoplamiento de la PC, un servicio para las PC compatibles con IBM desarrolladas en empresa a riesgo compartido con el Tandy Corporation.

 Del principio, AOL incluyó juegos en línea en su mezcla de productos; muchos juegos clásicos y ocasionales fueron incluidos en el sistema de software original de PlayNet. Con los años AOL introdujo muchos títulos y juegos interactivos en línea innovadores adicionales.


Fuente de Imagen; https://www.google.com.mx/

WAN


WAN


WAN es la sigla de Wide Area Network (“Red de Área Amplia”). El concepto se utiliza para nombrar a la red de computadoras que se extiende en una gran franja de territorio, ya sea a través de una ciudad, un país o, incluso, a nivel mundial.
Este tipo de red contrasta con las PAN (personal area networks), las LAN (local area networks), las CAN (campus area networks) o las MAN (metropolitan area networks), que generalmente están limitadas a un cuarto, un edificio, un campus o un área metropolitana específica respectivamente.
La más grande y conocida red WAN es internet.

Muchas WAN son construidas por y para una organización o empresa particular y son de uso privado, otras son construidas por los proveedores de Internet (ISP) para proveer de conexión a sus clientes. Hoy en día Internet proporciona WAN de alta velocidad, y la necesidad de redes privadas WAN se ha reducido drásticamente mientras que las VPN que utilizan cifrado y otras técnicas para hacer esa red dedicada aumentan continuamente.

Normalmente la WAN es una red punto a punto, es decir, red de paquete conmutado. Las redes WAN pueden usar sistemas de comunicación vía satélite o de radio. Fue la aparición de los portátiles y los PDA´s la que trajo el concepto de redes inalámbricas.

Una red de área amplia o WAN (Wide Area Network) se extiende sobre un área geográfica extensa, a veces un país o un continente, y su función fundamental está orientada a la interconexión de redes o equipos terminales que se encuentran ubicados a grandes distancias entre sí.

Para ello cuentan con una infraestructura basada en poderosos nodos de conmutación que llevan a cabo la interconexión de dichos elementos, por los que además fluyen un volumen apreciable de información de manera continúa.

Por esta razón también se dice que las redes WAN tienen carácter público, pues el tráfico de información que por ellas circula proviene de diferentes lugares, siendo usada por numerosos usuarios de diferentes países del mundo para transmitir información de un lugar a otro.
 
La infraestructura de redes WAN la componen, además de los nodos de conmutación, líneas de transmisión de grandes prestaciones, caracterizadas por sus grandes velocidades y ancho de banda en la mayoría de los casos.

Características de una Wan:


  • Posee máquinas dedicadas a la ejecución de programas de usuario (hosts)
  • Una subred, donde conectan uno o varios hosts.
  • División entre líneas de transmisión y elementos de conmutación (enrutadores)
  • Usualmente los routers son computadoras de las subredes que componen la WAN.
 

 Fuente de Imagen; https://www.google.com.mx/

martes, 7 de octubre de 2014

DNS

~DNS~






Domain Name System o DNS (en español «Sistema de Nombres de Dominio») es un sistema de nomenclatura jerárquica para computadoras, servicios o cualquier recurso conectado a Internet o a una red privada. Este sistema asocia información variada con nombres de dominios asignado a cada uno de los participantes. Su función más importante, es traducir (resolver) nombres inteligibles para las personas en identificadores binarios asociados con los equipos conectados a la red, esto con el propósito de poder localizar y direccionar estos equipos mundialmente.
El servidor DNS utiliza una base de datos distribuida y jerárquica que almacena información asociada a nombres de dominio en redes como Internet. Aunque como base de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los usos más comunes son la asignación de nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada dominio.
La asignación de nombres a direcciones IP es ciertamente la función más conocida de los protocolos DNS. Por ejemplo, si la dirección IP del sitio FTP de prox.mx es 200.64.128.4, la mayoría de la gente llega a este equipo especificando ftp.prox.mx y no la dirección IP. Además de ser más fácil de recordar, el nombre es más fiable. La dirección numérica podría cambiar por muchas razones, sin que tenga que cambiar el nombre.
Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos los servidores conectados a Internet. En un inicio, SRI (ahora SRI International) alojaba un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos. El crecimiento explosivo de la red causó que el sistema de nombres centralizado en el archivo hosts no resultara práctico y en 1983, Paul V. Mockapetris publicó los RFC 882 y RFC 883 definiendo lo que hoy en día ha evolucionado hacia el DNS moderno (estos RFC han quedado obsoletos por la publicación en 1987 de los RFC 1034 y 1035).

COMPONENTES

Para la operación práctica del sistema DNS se utilizan tres componentes principales:
  • Los Clientes fase 1: Un programa cliente DNS que se ejecuta en la computadora del usuario y que genera peticiones DNS de resolución de nombres a un servidor DNS (Por ejemplo: ¿Qué dirección IP corresponde a nombre.dominio?);
  • Los Servidores DNS: Que contestan las peticiones de los clientes. Los servidores recursivos tienen la capacidad de reenviar la petición a otro servidor si no disponen de la dirección solicitada.
  • Y las Zonas de autoridad, es una parte del espacio de nombre de dominios sobre la que es responsable un servidor DNS, que puede tener autoridad sobre varias zonas. ( Por ejemplo : subdominio .ORG, .COM, etc)


DNS EN EL MUNDO REAL
Los usuarios generalmente no se comunican directamente con el servidor DNS: la resolución de nombres se hace de forma transparente por las aplicaciones del cliente (por ejemplo, navegadores, clientes de correo y otras aplicaciones que usan Internet). Al realizar una petición que requiere una búsqueda de DNS, la petición se envía al servidor DNS local del sistema operativo. El sistema operativo, antes de establecer alguna comunicación, comprueba si la respuesta se encuentra en la memoria caché. En el caso de que no se encuentre, la petición se enviará a uno o más servidores DNS.
La mayoría de usuarios domésticos utilizan como servidor DNS el proporcionado por el proveedor de servicios de Internet. La dirección de estos servidores puede ser configurada de forma manual o automática mediante DHCP. En otros casos, los administradores de red tienen configurados sus propios servidores DNS.

 En cualquier caso, los servidores DNS que reciben la petición, buscan en primer lugar si disponen de la respuesta en la memoria caché. Si es así, sirven la respuesta; en caso contrario, iniciarían la búsqueda de manera recursiva. Una vez encontrada la respuesta, el servidor DNS guardará el resultado en su memoria caché para futuros usos y devuelve el resultado.
Es importante añadir que el protocolo DNS generalmente transporta las peticiones y respuestas por puerto UDP, puesto que al ser un protocolo que por su estructura y al tener menos niveles de seguridad es mucho más rápido. Los motivos por el cual en ocasiones se usa el puerto TCP son cuando se necesitan transportar respuestas mayores de 512 bytes de longitud y cuando por razones de fiabilidad se necesitan conectar un servidor DNS secundario al primario para recoger una nueva base de datos con authoritative.

TIPOS DE SERVIDORES DNS

  • Primarios o maestros: Guardan los datos de un espacio de nombres en sus ficheros.
  • Secundarios o esclavos: Obtienen los datos de los servidores primarios a través de una transferencia de zona.
  • Locales o caché: Funcionan con el mismo software, pero no contienen la base de datos para la resolución de nombres. Cuando se les realiza una consulta, estos a su vez consultan a los servidores DNS correspondientes, almacenando la respuesta en su base de datos para agilizar la repetición de estas peticiones en el futuro continuo o libre.


  • Fuente de Imagen; https://www.google.com.mx/

    OSI


     ~OSI~

    (Open Systems Interconnection - Interconexión de Sistemas Abiertos) Norma universal para protocolos de comunicación lanzado en 1984. Fue propuesto por ISO y divide las tareas de la red en siete niveles. Proporciona a los fabricantes estándares que aseguran mayor compatibilidad e interoperatibilidad entre distintas tecnologías de red producidas a mundialmente. A principios de la década de 1980 hubo un gran crecimiento en cantidad y tamaño de redes, especialmente por parte de empresas. A mediados de la década se comenzaron a notar los inconvenientes de este gran crecimiento. Las redes tenían problemas para comunicarse entre sí por las diferentes implementaciones que tenía cada empresa desarrolladora de tecnologías de red. Para resolver este problema de incompatibilidades entre redes, la ISO produjo un conjunto de reglas y normas aplicables en forma general a todas las redes. El resultado fue un modelo de red que ayuda a fabricantes y empresas a crear redes compatibles entre sí. Este esquema fue utilizado para crear numerosos protocolos. Con el tiempo comenzaron a llegar protocolos más flexibles, donde cada capa no estaba tan diferenciada y por lo tanto no estaba claro el nivel OSI al que correspondían. Esto hizo que este esquema se ponga en segundo plano. Sin embargo sigue siendo muy utilizado en la enseñanza en universidades y cursos de redes, especialmente para mostrar cómo pueden estructurarse los protocolos de comunicaciones en forma de pila, aunque no se corresponda demasiado con la realidad.
    MODELO OSI;
    El Modelo OSI divide en 7 capas el proceso de transmisión de la información entre equipo informáticos, donde cada capa se encarga de ejecutar una determinada parte del proceso global.
    El modelo OSI abarca una serie de eventos importantes:
     
     *El modo en q los datos se traducen a un formato apropiado para la arquitectura de red q se esta utilizando
    *El modo en q las computadoras u otro tipo de dispositivo de la red se comunican. Cuando se envíen datos tiene q existir algún tipo de mecanismo q proporcione un canal de comunicación entre el remitente y el destinatario.
     *El modo en q los datos se transmiten entre los distintos dispositivos y la forma en q se resuelve la secuenciación y comprobación de errores.
     *El modo en q el direccionamiento lógico de los paquetes pasa a convertirse en el direccionamiento físico q proporciona la red.
    CAPAS;
    Las dos únicas capas del modelo con las que de hecho, interactúa el usuario son la primera capa, la capa Física, y la última capa, la capa de Aplicación.
    La capa física abarca los aspectos físicos de la red (es decir, los cables, hubs y el resto de dispositivos que conforman el entorno físico de la red). Seguramente ya habrá interactuado mas de una vez con la capa Física, por ejemplo al ajustar un cable mal conectado.
     La capa de aplicación proporciona la interfaz que utiliza el usuario en su computadora para enviar mensajes de correo electrónico 0 ubicar un archive en la red.
     
     7. APLICACIÓN
    CAPA DE APLICACIÓN;
    Proporciona la interfaz y servicios q soportan las aplicaciones de usuario. También se encarga de ofrecer acceso general a la red
    Esta capa suministra las herramientas q el usuario, de hecho ve. También ofrece los servicios de red relacionados con estas aplicaciones, como la gestión de mensajes, la transferencia de archivos y las consultas a base de datos.
    Entre los servicios de intercambio de información q gestiona la capa de aplicación se encuentran los protocolos SMTP, Telnet, ftp, http
    6. PRESENTACIÓN
    CAPA DE PRESENTACIÓN;
    La capa de presentación puede considerarse el traductor del modelo OSI. Esta capa toma los paquetes de la capa de aplicación y los convierte a un formato genérico que pueden leer todas las computadoras. Par ejemplo, los datos escritos en caracteres ASCII se traducirán a un formato más básico y genérico.
    También se encarga de cifrar los datos así como de comprimirlos para reducir su tamaño. El paquete que crea la capa de presentación contiene los datos prácticamente con el formato con el que viajaran por las restantes capas de la pila OSI (aunque las capas siguientes Irán añadiendo elementos al paquete.    
    5. SESIÓN
    LA CAPA DE SESIÓN;
    La capa de sesión es la encargada de establecer el enlace de comunicación o sesión y también de finalizarla entre las computadoras emisora y receptora. Esta capa también gestiona la sesión que se establece entre ambos nodos
    La capa de sesión pasa a encargarse de ubicar puntas de control en la secuencia de datos además proporciona cierta tolerancia a fallos dentro de la sesión de comunicación
    Los protocolos que operan en la capa de sesión pueden proporcionar dos tipos distintos de enfoques para que los datos vayan del emisor al receptor: la comunicación orientada a la conexión y Ia comunicación sin conexión
    Los protocolos orientados a la conexión que operan en la capa de sesi6n proporcionan un entorno donde las computadoras conectadas se ponen de acuerdo sobre los parámetros relativos a la creación de los puntos de control en los datos, mantienen un dialogo durante la transferencia de los mismos, y después terminan de forma simultanea la sesión de transferencia.
     4. TRANSPORTE;
    LA CAPA DE TRANSPORTE ;
    La capa de transporte es la encargada de controlar el flujo de datos entre los nodos que establecen una comunicación; los datos no solo deben entregarse sin errores, sino además en la secuencia que proceda. La capa de transporte se ocupa también de evaluar el tamaño de los paquetes con el fin de que estos Tengan el tamaño requerido por las capas inferiores del conjunto de protocolos. El tamaño de los paquetes 10 dicta la arquitectura de red que se utilice.
    3. RED
    LA CAPA DE RED;
    La capa de red encamina los paquetes además de ocuparse de entregarlos. La determinación de la ruta que deben seguir los datos se produce en esta capa, lo mismo que el intercambio efectivo de los mismos dentro de dicha ruta, La Capa 3 es donde las direcciones lógicas (como las direcciones IP de una computadora de red) pasan a convertirse en direcciones físicas (las direcciones de hardware de la NIC, la Tarjeta de Interfaz para Red, para esa computadora especifica).
    Los routers operan precisamente en Ia capa de red y utilizan los protocolos de encaminamiento de la Capa 3 para determinar la ruta que deben seguir los paquetes de datos.
    2. ENLACE DE DATOS
    LA CAPA DE ENLACE DE DATOS;
    Cuando los paquetes de datos llegan a la capa de enlace de datos, estas pasan a ubicarse en tramas (unidades de datos), que vienen definidas por la arquitectura de red que se esta utilizando (como Ethernet, Token Ring, etc.). La capa de enlace de datos se encarga de desplazar los datos por el enlace físico de comunicación hasta el nodo receptor, e identifica cada computadora incluida en la red de acuerdo con su dirección de hardware
    La información de encabezamiento se añade a cada trama que contenga las direcciones de envió y recepción. La capa de enlace de datos también se asegura de que las tramas enviadas por el enlace físico se reciben sin error alguno. Por ello, los protocolos que operan en esta capa adjuntaran un Chequeo de Redundancia Cíclica (Cyclical Redundancy Check a CRC) al final de cada trama. EI CRC es básicamente un valor que se calcula tanto en la computadora emisora como en la receptora, Si los dos valores CRC coinciden, significa que la trama se recibió correcta e íntegramente, y no sufrió error alguno durante su transferencia.
    1.-FISICA
    LA CAPA FÍSICA:
    En la capa física las tramas procedentes de la capa de enlace de datos se convierten en una secuencia única de bits que puede transmitirse por el entorno físico de la red. La capa física también determina los aspectos físicos sobre la forma en que el cableado esta enganchado a la NIC de la computadora.
     LAS SUBCAPAS DEL ENLACE DE DATOS;
    La capa de enlace de datos se divide en dos subcapas, el Control Lógico del Enlace (Logical Link Control o LLC) y el Control de Acceso al Medio (Media Access Control MAC).
     La subcapa de Control Lógico del Enlace establece y mantiene el enlace entre las computadoras emisora y receptora cuando los datos se desplazan por el entorno físico de la red. La subcapa LLC también proporciona Puntos de Acceso a Servicio (Servicie Access Poínos 0 SAP),
     La subcapa de Control de Acceso al Medio determina la forma en que las computadoras se comunican dentro de la red, y como y donde una computadora puede acceder, de hecho, al entorno físico de la red y enviar datos.

    WEB 3.0


    ~WEB 3.0~


     

    HISTORIA DE LA WEB 3.0

    La primera referencia a este futuro de la web, se acuñó en 2001, al aparecer publicado en un artículo científico de la American Scientific y a su autor, Tim Berners-Lee, apuntando a un entorno online idílico donde las máquinas pueden interpretar páginas web de la misma forma que los humanos.
    La definición concreta de algo que todavía no existe, tiene diferentes versiones. Mientras unos expertos aseguran que será una unión coherente entre Inteligencia Artificial y Web, otros apuntan a una progresión de Internet tal como lo conocemos.

     
    UN SINÓNIMO DE WEB 3.0
    Esta consiste en una nueva concepción del entorno web para un uso más natural por parte de los usuarios, desapareciendo la búsqueda por palabras clave para dar paso a la búsqueda por necesidades y en forma de expresión humana natural. Se trata de utilizar un lenguaje similar al que se usa en la vida cotidiana, lo que conlleva además la aparición de software que permita codificar correctamente esta información para devolver resultados lo más personalizados posible.



     
    La evolución de la Web 2.0 ha hecho posible que se den más pistas sobre lo que se considera Web 3.0, siempre que se vea como una verdadera revolución, aunque lo más correcto sea verlo como una evolución, un lugar al que se llegará con el continuo cambio presentado por la Web 2.0. El surgimiento de las redes sociales, haciendo una Red cada vez más social y persona, así como la creación de páginas web cada vez más dinámicas (y por tanto menos estáticas), aportando soluciones cada vez más personales (listas de deseos, sugerencias de compra, ofertas personalizadas, etc.), apuntan a que el cambio ya está patente y que la personalización de los contenidos es un hecho.

    La visión más futurista y que llega del hecho de que cada vez existan más posibilidades de conexión en cuanto a dispositivos disponibles, es la de la conexión desde cualquier soporte dentro del hogar. Espejos, electrodomésticos... Todo ello para ofrecer un contenido personalizable, capaz de ofrecerse con la interacción de diferentes páginas web (portales que se conectan entre ellos para ofrecer un contenido a medida).
     

    CARACTERÍSTICAS DE LA WEB 3.0 

     La web 2.0 significó la aparición de redes sociales ahora las redes semánticas se dan paso gracias a la Web 3.0, que centra su objetivo en la inteligencia artificial y al innovación tecnológica. Mencionaremos algunas de las características que la identifican su presencia:

     1.- INTELIGENCIA;
    El proyecto de la red semántica conocida como la Web 3.0, pretende crear un método para clasificar las páginas de internet, un sistema de etiquetado que no solo permita a los buscadores encontrar la información en la red sino entenderla. Al conseguir este objetivo, el usuario podrá acudir a la Web para preguntar en su lengua y sin necesidad de claves por un determinado asunto. La web aprenderá del resultado de las búsquedas para próximas operaciones.

    2.-SOCIABILIDAD;
    Las comunidades sociales se hacen más exclusivas y complejas. Crecen las redes sociales y el número de formas en que se conectan a sus miembros. Empieza a considerarse normal que una persona tenga varias identidades en su vida virtual y se planteé incluso la posibilidad de poder migrar la identidad de una red a otra.  

     3.-RAPIDEZ;
    La transmisión de video en la red y el nacimiento de portales dedicados a esta tarea, como YouTube, son posibles con gracias a las rápidas conexiones de los usuarios. Las principales operadores de telecomunicaciones han empezado a implementar la fibra óptica hacia los usuarios con anchos de banda de hasta 3Mbps de ADSL que se convertirán en velocidades que irán de 30Mbps a 1000 Mbps.

    4.-ABIERTA;
     El software libre, los estándares y las licencias Cretive Commons, se han convertido en habituales en internet. La información se distribuye libremente por la web, impidiendo que un solo dueño se apropie de ella. La plusvalía de la propiedad sobre la información se pierde a favor de un uso más democrático.

     5.-UBICUIDAD;
    Los computadores personales se van volviendo obsoletos debido a la multifuncionalidad de los teléfonos móviles y otros dispositivos portátiles. Con la aparición del correo electrónico en las Blackberry en el escritorio se espera que Apple y ¡Phone incluyan la web. Las pequeñas pantallas crecen en tamaño y resolución permitiendo mejor visualización del contenido web. El alcance de las redes inalámbricas y de telefonía de última generación se multiplica ampliando la cobertura de la red.

    6.-FACILIDAD;
    Los internautas que visitan un sitio web deben emplear cierto tiempo en conocerlo aprender a usarlo. Las nuevas tendencias de diseño buscan estándares hacia una Web más homogénea en sus funciones y más fácil de reconocer, además de crear espacios que el usuario pueda configurar a su gusto.

     7.-DISTRIBUCIÓN;
    Los programas y la información se convierten en pequeñas piezas distribuidas por la Web y capaces de trabajar conjuntamente. Los internautas pueden coger y mezclar estas piezas para realizar una determinada tarea. La Web se convierte así, en un enorme espacio ejecutable a modo de un computador universal. Los sistemas de computación distribuida- sistemas que unen las potencia de muchos computadores en una sola entidad.- se convierten en una opción habitual de los sistemas operativos.
     

     8.-TRIDIMENSIONALIDAD;
    Los espacios tridimensionales, en forma de mundos virtuales en forma de juegos y tele preespecialidad serán cada vez más habituales. Aparecerán nuevos dispositivos para moverse por la Web, diferentes al teclado, al ratón y a los lápices ópticos.

    Otra de las características apuntadas para esta Web 3.0 es la creación de un gran base de datos para dotar de nuevas posibilidades a los buscadores, enfocadas a la Inteligencia Artificial (que haría referencia al correcto funcionamiento de esta Web Semántica a través de una interpretación inteligente de datos) o la geo localización.

    Informatica.pdf
    Ver Descargar



    Fuente de Imagen; https://www.google.com.mx/

    WEB 2.0

    La Web 2.0
     
     
     
     
     
    TERMINO;

    La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final.
    El término Web 2.0 fue utilizado por primera vez por la empresa editorial estadounidense O’Reilly Media (2004) para referirse a una segunda generación de Web basada en las comunidades de usuarios. Abarca un amplio catálogo de sitios y servicios web que incluyen las redes sociales, los blogs, los wikis, la sindicación de noticias RSS, etc. Su propósito fundamental es fomentar la colaboración y el intercambio ágil de información entre los usuarios.
     
     
    PRINCIPIO FUNDAMENTAL;

    El principio fundamental de la Web 2.0 es que "Todo está en la web". Esto significa que el usuario solo necesita un navegador web para conectarse desde cualquier equipo o lugar e interactuar con los sitios o aplicaciones donde publicar contenidos, recopilar información, comunicarse con otros usuarios, etc.
     
     

    ¿QUÉ TECNOLOGÍAS APOYAN A LA WEB 2.0?

    El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web.
    •Transformar software de escritorio hacia la plataforma del web.
    •Respeto a los estándares como el XHTML.
    •Separación de contenido del diseño con uso de hojas de estilo.
    •Sindicación de contenidos.
    •Ajax (javascript ascincrónico y xml).
    •Uso de Flash, Flex o Lazlo.
    •Uso de Ruby on Rails para programar páginas dinámicas.
    •Utilización de redes sociales al manejar usuarios y comunidades.
    •Dar control total a los usuarios en el manejo de su información.
    •Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros.
    •Facilitar el posicionamiento con URL sencillos.
    ¿EN QUÉ NOS SIRVE LA WEB 2.0?
    El uso del término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos.
    Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0.


     
    Fuente de Imagen; https://www.google.com.mx/

    Web 1.0



                                ~WEB 1.0~.

    La web 1.0, representa uno de los mayores logros de la humanidad con respecto a la comunicación.
    La web que vio su nacimiento en 1989 consiste en un montón de documentos web conectados por medio de hipervínculos, representó para los medios de comunicaciones uno de los mayores logros debido a que, es rápida y todos pueden participar, algo que en los medios tradicionales no se podía lograr.


    Se dice que en un futuro no muy lejano  la web ocasionará (o está ocasionando) la extinción de los medios tradicionales, tales como la televisión, periódicos y el radio, con estos últimos dos es más evidente esta predicción pues últimamente se han venido cerrando estaciones de radio e importantes empresas que distribuyen periódicos alrededor del mundo.


    ¿QUE ES WEB 1.0?
    La web 1.0 es un tipo de web estática con documentos que jamás se actualizaban y los contenidos dirigidos a la navegaciòn HTML y GIF. En ella se subían documentos que JAMAS se actualizaban lo cual era un problema cuando la información era renovada o pasaban cosas que hiciera que cambiaran los datos. Usaban un formato HTML para poder guardar y crear las páginas, debido a que como no eran tantas se podía llevar un registro acerca de lo que se subia a la Internet.


    HISTORIA
    La Web 1.0 empezó en los años 60's. De la forma más básica que existe, con navegadores de solo texto, como ELISA, bastante rápidos, después surgió el HTML (Hyper Text Markup Language) que hizo las páginas web más agradables a la vista y los primeros navegadores visuales como IE, Netscape, etc.
    La Web 1.0 es de solo lectura, el usuario no puede interactuar con el contenido de la página,(nada de comentarios, respuestas, citas, etc.). Estando totalmente limitado a lo que el Webmaster sube a la página web.
    Web 1.0 es una frase que se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web.


    Fuente de Imagen; https://www.google.com.mx/

    DARPA


    ~DARPA~

    ¿QUÉ SIGNIFICA DARPA?

    El acrónimo DARPA son las siglas en inglés de Defense Advanced Research Projects Agency, cuyo significado en español se traduce como Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa.


    DEFINICIÓN:

    DARPA  es una agencia del Departamento de Defensa de Estados Unidos responsable del desarrollo de nuevas tecnologías para uso militar. Fue creada en 1958 como consecuencia tecnológica de la llamada Guerra Fría, y del que surgieron, década después, los fundamentos de ARPANET, red que dio origen a Internet.
    La agencia, denominada en su origen simplemente como ARPA, cambió su denominación en 1972, conociéndose en lo sucesivo como DARPA por sus siglas en inglés DARPA fue responsable de dar fondos para desarrollar muchas tecnologías que han tenido un gran impacto en el mundo, satélites, robots, incluyendo redes de ordenadores, (empezando con ARPANET, que después se desarrolló como Internet), así como NLS (National Language Services), el cual fue tanto un sistema de hipertexto como un precursor de la interfaz gráfica de usuario contemporánea.
                        


    La Agencia, bajo contralor del Departamento de Defensa se organizará en forma independiente de la comunidad de investigación y desarrollo militar. Su misión durante las próximas décadas la llevará a desarrollar y proveer aplicaciones tecnológicas no convencionales para la defensa de EE.UU. ampliando la frontera tecnológica a favor de una organización reducida en número, pero flexible, libre de condicionamientos y dotada de científicos de elite. A.R.P.A. será la responsable de una gran parte de la investigación en ordenadores y comunicaciones de carácter innovador en EE.UU. durante los próximos años.

    Su nombre original fue simplemente Agencia de Investigación de Proyectos Avanzados pero se renombró a DARPA (por Defensa) el 23 de marzo de 1972, volvió a cambiarse a ARPA el 22 de febrero de 1993 y otra vez a DARPA el 11 de marzo de 1996.

    Es independiente de otras agencias más convencionales de I+D y reporta directamente al consejo del Departamento de Defensa. DARPA tiene alrededor de 240 trabajadores, los cuales manejan un presupuesto de 2 mil millones de dólares. Estos datos son sólo promedios, puesto que DARPA está enfocado en proyectos de corto plazo (de dos a cuatro años) llevados a cabo por equipos pequeños y constituidos expresamente para dichos proyectos.

    MISIÓN DE DARPA;

    "DARPA es una agencia de defensa con un papel único dentro del Departamento de Defensa. DARPA no está vinculado a una misión operacional específica: DARPA proporciona opciones tecnológicas para el Departamento entero, y está diseñado para ser el motor tecnológico en la transformación del Departamento de Defensa".

    "La propuesta de DARPA es imaginar qué capacidades pudiera desear un comandante militar en el futuro, y acelerar estas capacidades de forma concreta a través de demostraciones tecnológicas. Esto no sólo proporciona opciones al comandante, sino que también cambia la mentalidad acerca de lo que es tecnológicamente posible hoy en día."

    ORGANIZACIÓN ACTUAL;

    DARPA tiene ocho oficinas de programa, las cuales dan informe al director de DARPA, Dr. Anthony J. Tether:


    1. La Oficina de Tecnología Avanzada (ATO) investiga, demuestra y desarrolla proyectos de gran factura en áreas de telecomunicaciones, marítima, operaciones especiales, comando y control, aseguramiento de información y misiones de supervivencia.

    2. La Oficina de Ciencias de la Defensa busca las tecnologías más novedosas dentro de un amplio espectro de comunidades de investigación científica y de ingeniería, y desarrolla estas tecnologías en nuevas capacidades militares importantes y radicalmente nuevas.

    3. La Oficina de Tecnología en Procesamiento de Información está enfocada en la invención de tecnologías de redes, computación y de software vitales para asegurar las superioridad militar del Departamento de Defensa.

    4. La Oficina de Explotación de Información desarrolla tecnología de detección y de sistemas de información y sistemas con aplicación a concepción del campo de batalla, blancos, comando y control, y la infraestructura de apoyo requerida para dirigir amenazas de tierra en procesos dinámicos y de ciclo cerrado.

    5. La misión de la Oficina de Tecnología en Microsistemas se enfoca en la integración heterogénea a escala de microchip de sistemas electrónicos, fotónicos y micro electromecánicos (estos últimos también conocidos como MEMS). Su tecnología de alto riesgo y factura está dirigida a resolver los problemas de nivel nacional de protección contra ataques biológicos, químicos y de información, y para proporcionar dominio operacional para comando y control móvil distribuido, guerra tripulada/no-tripulada combinada, y planeación y ejecución militar dinámica y adaptativa.

    6. La Oficina de Proyectos Especiales investiga, desarrolla, demuestra y transforma tecnologías enfocadas a confrontar desafíos nacionales presentes y emergentes. Sus inversiones abarcan desde el desarrollo de tecnologías hasta la demostración de extensos sistemas prototipo. La SPO desarrolla tecnologías para contrarrestar la amenaza de instalaciones subterráneas usadas para propósitos como comando y control, almacenamiento y puesta en marcha de armas, y manufactura de armas de destrucción masiva. También desarrolla formas significativamente más efectivas en costo para contrarrestar misiles múltiples de bajo costo, vehículos de asalto urbano, y otras plataformas usadas para entrega, interferencia y vigilancia de armas. La SPO invierte en novedosas tecnologías espaciales a lo largo del espectro de aplicaciones de control espacial que incluyen acceso rápido, concepción situacional de espacio, contra-espacio y enfoques de detección a nivel táctico persistente que incluyen aberturas y estructuras en el espacio extremadamente grandes.

    7. La Oficina de Tecnología Táctica se encarga de investigación militar avanzada de alto coste y riesgo, enfatizando el enfoque de "sistema" y "subsistema" al desarrollo de sistemas aeronáuticos, espaciales y terrestres así también como de procesadores empotrados y sistemas de control.

    8. La Oficina Conjunta de Sistemas de Combate Aéreo No Tripulado (J-UCAS) es la actividad en DARPA a la cual se le ha encomendado el esfuerzo del Departamento de Defensa de desarrollar y demostrar los Sistemas de Combate Aéreo No Tripulado.

    Informatica.pdf
    Ver Descargar


    Fuente de Imagen; https://www.google.com.mx/