jueves, 14 de abril de 2011
jueves, 7 de abril de 2011
25 preguntas
Donde se creo arpanet
1) Cuanto duro la web 1.0
2) Cuales son las características de la 1.0
3) Cuando empeso la 2.0
4) Con quien esta asociada la 2.0
5) Cual es la primera generación
6) cual es la primera generación
7) que diferencia hay entre ellas
8) cuando nace la 3ra y 4ta genreracion
9) que es un periférico de entrada
10) cuales son los de salida
11) quien es donald Davis
12) quienes usaban transistores
13) porque usaban pequenos anillos magneticos en la segunda generación
14) cuando surgió el primer simulador de vuelo
15) que es un chip
16) que es la memoria de ram
17) que diferencia hay entre la primera y la quinta
18) de que periférico es el monitor
19) y la cpu?
20) Que es “software”
21) Que es un microprocesador en donde surguio
22) La web 2.0 es un fenómeno social
23) En que consiste la web 2.0
24) Y la 1.0
Arpanet
La red de computadoras Advanced Research Projects Agency Network (ARPANET) fue creada por encargo del Departamento de Defensa de los Estados Unidos ("DoD" por sus siglas en inglés) como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP iniciada en 1983.
El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica".
En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno.
Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.
Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes.
Por último, Donald Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Casualmente, fue Davies quien empezó a usar el término "paquete".
En este estado de las cosas, cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.
El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica".
En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno.
Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.
Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
- El uso de una red descentralizada con múltiples caminos entre dos puntos.
- La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.
En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes.
Por último, Donald Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Casualmente, fue Davies quien empezó a usar el término "paquete".
En este estado de las cosas, cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.
Quinta generacion
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto lanzado por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,[1] usando el lenguaje PROLOG[2] [3] [4] al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
web 2.0
El término Web 2.0 (2004–actualidad) está comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones en la web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona.
La Web 2.0 esta asociada estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.
La Web 2.0 esta asociada estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.
web 1.0
La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc.
La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.
Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.[1]
Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.
caracteristicas:
Terry Flew, en la tercera edición de New Media describe cual cree que son las diferencias que caracterizan a la Web 1.0:
La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.
Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.[1]
Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.
caracteristicas:
Terry Flew, en la tercera edición de New Media describe cual cree que son las diferencias que caracterizan a la Web 1.0:
"move from personal websites to blogs and blog site aggregation, from publishing to participation, from web content as the outcome of large up-front investment to an ongoing and interactive process, and from content management systems to links based on tagging (folksonomy)"Diseño de elementos en la Web 1.0 Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:
- Páginas estáticas en vez de dinámicas por el usuario que la visita[2]
- El uso de framesets o Marcos.
- Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de navegadores web.
- Libros de visitas online o guestbooks
- botonesGIF, casi siempre a una resolución típica de 88x31 pixels en tamaño promocionando navegadores web u otros productos.[3]
- formularios HTML enviados vía email. Un usuario llenaba un formulario y después de hacer clic se enviaba a través de un cliente de correo electrónico, con el problema que en el código se podía observar los detalles del envío del correo electrónico.[4]
Suscribirse a:
Entradas (Atom)