DEJA UN MENSAJE

COMUNITARIO

neobux

sábado, 28 de abril de 2012

El origen de: La Nube

Esta ha sido la semana de la nube, y decidimos explorar en esta sección sus orígenes: ¿por qué “nube”? Quizás algunos imaginarán que tiene que ver con que los datos “viajan por el aire” o están en un lugar indeterminado en el cielo desde donde uno va y los obtiene. La verdad es que todo eso es imaginación, y el concepto de nube es en realidad una metáfora que hace referencia a servidores, cables, conexiones, routers y más, que en realidad están en la tierra.

Una idea antigua

Pese a que el término “nube” no apareció hasta la década de 1990, algunos pioneros de la computación previeron lo que ocurriría con las redes computacionales ya en 1960. J.C.R. Licklider (que participó en el desarrollo de ARPANET) y John McCarthy (quien acuñó el término “inteligencia artificial”) fueron dos de los principales previsores de lo que se convertiría luego en la nube.
Licklider concibió las primeras ideas de una red computacional global en 1962, en discusiones sobre el concepto de “Red Computacional Intergaláctica”. Estas ideas contenían casi todo lo que es internet hoy. Licklider aplicó el concepto en ARPANET y plasmó su visión en diferentes documentos, en los que describió aplicaciones en la red, predijo el uso de redes para soportar comunidades de intereses comunes, y la colaboración entre personas sin importar la ubicación.
McCarthy en tanto opinaba que “la computación algún día estará organizada como un servicio público”, así como la luz o el agua. Aunque el germen de la idea estaba plantado en la década de 1960, no sería sino hasta los 90′s cuando se empezó a usar la palabra “nube” para referirse a todo eso.

La nube actual

La computación en la nube comenzó cuando se empezaron a correr tareas en una red de computadores en lugar de dejar que un sólo gran computador hiciera todo el trabajo. De esta manera, la tarea se reparte entre varios, exigiendo menos del sistema para entregar un servicio a los usuarios.
En el “back end” hay múltiples computadores, servidores y sistemas de almacenamiento de datos, mientras que el usuario interactúa con ella a través de una aplicación o usando el navegador.
El término “nube” se empezó a usar para referirse primero a las redes telefónicas, como una manera de demarcar algo de lo que el usuario no necesitaba preocuparse. El término se trasladó después a la infraestructura computacional, y fue usado de forma académica por primera vez en 1997 por el profesor Ramnath Chellappa, quien lo definió como “un nuevo paradigma de la computación, donde los límites estarán determinados por racionales económicas en lugar de límites técnicos nada más”.
Lo cierto es que en los 90′s, la nube todavía era muy limitada.
Uno de los primeros en aprovechar esta naciente plataforma fue Salesforce.com, que introdujo el concepto de “software como servicio” en 1999, entregando aplicaciones para empresas a través de un sitio web. Más tarde, Amazon jugó un rol clave al modernizar sus datacenters, iniciando el desarrollo de un nuevo producto para entregar computación en la nube a clientes externos, lanzando Amazon Web Service (AWS) en 2002.
El siguiente paso fue dado por Google en 2006 con Google Docs, que realmente llevó a la computación en la nube a los usuarios comunes y corrientes, e hizo que los internautas comenzaran a estar conscientes de qué era la nube. El mismo año, Amazon lanzó su Elastic Compute Cloud (EC2), como un servicio que permite a pequeñas empresas y personas arrendar computadores para correr sus aplicaciones.

El futuro

Rápidamente las empresas se fueron sumando y hoy tenemos una multitud de servicios que están en la nube a nuestra disposición. En cierto sentido, la nube tuvo un desarrollo natural a medida que los usos que se le empezaron a dar a las redes se diversificaron para abarcar diferentes cosas.
Es así como en la actualidad tenemos apuestas como Chrome OS, un sistema operativo que pretende depender completamente de la nube para que realicemos cualquier tarea cotidiana – escribir un documento, editar una foto, ver videos, jugar, etc. Probablemente veremos más implementaciones que nos harán nube-dependientes en el futuro, con todas las ventajas y desventajas que eso conlleva.
Porque si bien la nube nos permite acceder a nuestras cosas y a diferentes servicios desde cualquier parte y cualquier computador, un requerimiento básico es tener conectividad a internet – que todavía gran parte del mundo no tiene -, y además hay cuestionamientos sobre la privacidad, ya que nuestros datos terminan almacenados en los servidores de un tercero, en el que no siempre tenemos plena confianza.http://feedproxy.google.com/~r/fayerwayer/~3/O58ziKsrM5s/story01.htm
Link: El origen de






Editor: Teólogo–Informático: Roberto Romero PRENSA DIGITAL NOTIC-VOZ "EL CAJIGALENSE" Yaguaraparo, Municipio Cajigal, Estado Sucre, Venezuela.Dirección Internet: http://robertoromeropereira.blogspot.com/

La mayoría de los sitios seguros de internet, en realidad son inseguros, según estudio

El 90% de los 200.000 sitios de la web que usan HTTPS y supuestamente son seguros, en realidad son vulnerables a ataques conocidos de SSL (Secure Sockets Layer), de acuerdo a un informe presentado por la ONG Thrustworthy Internet Movement (TIM), dedicada a temas de privacidad, seguridad y confianza. Esto significa que los atacantes podrían leer información que está cifrada, o alterar tráfico encriptado.
El informe está basado en datos de un proyecto llamado SSL Pulse, que usó una herramienta para escanear automáticamente la robustez de las implementaciones de HTTPS de los sitios web más populares del mundo según la lista publicada por Alexa.
SSL Pulse revisa los protocolos soportados por sitios HTTPS (SSL 2.0, 3.0, TLS 1.0, 1.1, etc), el largo de las claves usadas para comunicaciones seguras (512 bits, 1024 bits, etc) y los tipos de cifrados soportados (256 bits, 128 bits o menos).
Luego, usando un algoritmo se asignó un puntaje entre 0 y 100 a cada configuración HTTPS, que luego fue traducido a una nota, siendo la “A” el valor más alto, si el sitio obtenía sobre 80 puntos.
La mitad de los 200.000 sitios analizados recibieron una A, lo que significa que usan protocolos modernos, cifrados robustos y claves largas. Sin embargo, sólo el 10% calificaron como realmente seguros.
Un 75% resultó vulnerable a un ataque conocido como BEAST, que puede descifrar los sistemas de autenticación y cookies de los requerimientos HTTPS. El ataque BEAST fue demostrado hace 7 meses por Juliano Rizzo y Thai Duong en Argentina. La vulnerabilidad usada fue reparada en la versión 1.1 del protocolo Transport Layer Security (TLS), pero muchos servidores siguieron usando protocolos más antiguos y vulnerables para mantener la compatibilidad hacia versiones anteriores.
El problema también fue parchado en navegadores nuevos, pero suele suceder sobre todo en empresas que no actualizan sus browsers, permaneciendo vulnerables.
Para un sitio común, esto no sería un problema demasiado grave, pero en webs con muchos usuarios que pueden ser explotados de alguna manera, o instituciones financieras, es potencialmente desastroso.
En la web, los paquetes normalmente transitan por redes abiertas donde pueden ser vistos, de modo que el SSL es muchas veces la única protección que evita que los passwords y otras informaciones sean interceptadas por cibercriminales o algún otro tipo de espía.http://feedproxy.google.com/~r/fayerwayer/~3/CUiyZ6zkuRw/story01.htm




Editor: Teólogo–Informático: Roberto Romero PRENSA DIGITAL NOTIC-VOZ "EL CAJIGALENSE" Yaguaraparo, Municipio Cajigal, Estado Sucre, Venezuela.Dirección Internet: http://robertoromeropereira.blogspot.com/

Gana Dolares con Neobux