jueves, 21 de junio de 2012

NOTICIA TECNOLOGICA






Elegir entre escanear su cerebro con una Mac o una PC podría costarle la vida. La tomografías cerebrales son tan distintas según los equipos como los diagnósticos que generan, afirman científicos alemanes. Los investigadores realizaron escáneres cerebrales con un programa denominado FreeSurfer, habitualmente utilizado por los médicos para analizar datos y obtener mediciones sobre el volumen neuro anatómico y estructural del espesor del cerebro. Estas pruebas se hicieron con diferentes equipos: Mac y HP y con diferentes versiones de sistemas operativos como el Mac OS, y otras versiones del FreeSurfer. Este programa está disponible para ambas plataformas y se encontró que en general en las imágenes tomadas con uno o con otro existe una diferencia de entre el 2 % y 5 %, sin embargo en algunas áreas la variación es hasta del 15 %, lo cual puede resultar bastante peligroso si se trata de determinar el tamaño de un tumor cerebral. Las diferencias podrían llevar a diferentes diagnósticos y eventualmente a la muerte, reveló el informe del grupo, publicado por la revista científica PLoS One. 

NOTICIA TECNOLOGICA


Liquid Feedback, un software pirata para la democracia líquidaLiquid Feedback, un software pirata para la democracia líquida

El concepto de democracia líquida es una respuesta al actual modelo de representación que monopolizan los partidos políticos y el cual lejos de representar la voluntad de aquellos que depositaron su poder en ellos, de hecho lo cancelan y peor aún: lo abusan sistemáticamente.

No debe de sorprendernos que un partido con una plataforma política que reconoce los intereses inmediatos de una sociedad enredada — y no de los mercados —, siga creciendo de la misma forma que lo hace el hartazgo contra rancias políticas neoliberales. La distribución y acceso a la cultura y el conocimiento por encima de la propiedad intelectual, privacidad por encima del control y la vigilancia, y transparencia legislativa por encima de la opacidad y lobbying; ofrecen motivos suficientes para considerar a los piratas como una opción para una transformación política real.

Es por esto que el Partido Pirata Alemán continúa ganando lugares en los recintos parlamentarios. Su más reciente victoria consiguió 6 lugares en la ciudad alemana de Schleswig-Holstein.

El avance de los piratas como fuerza política en Alemania también se debe a que a nivel interno se han preocupado por reducir la complejidad que implica la representación política y sobre todo, hacer el modo en el que ésto opera mucho más transparente. Todo esto ha sido posible en gran medida gracias a la agilidad que les brinda el software Liquid Feedback:

Un software libre para la formación de opinión política y toma de decisiones, que borra los límites entre la democracia representativa y directa.

La democracia representativa ata a los ciudadanos a soportar la ineptitud de sus gobernantes durante cierto tiempo y en la mayoría de los países no hay mecanismos para revocar el poder de representación que se les da una vez que han sido electos. Por otro lado, la democracia directa no es un modelo realista en gran escala, es decir, jamás se van a poder sentar a dialogar todos los millones de ciudadanos de un país, para ponerse de acuerdo al mismo tiempo y en el mismo lugar.


El 

El software de Liquid FeedBack no fue desarrollado por el Partido Pirata Alemán, ellos son simplemente los que mejor lo han usado. Los desarrolladores — aunque simpatizantes de la corriente política pirata — son una start-up independiente llamada Public Software Group y quienes ofrecen su software a cualquier tipo de actor interesado en usar esta herramienta para la toma de decisiones colectivas.


http://alt1

Ver perfil de usuario

NOTICIA TECNOLOGICA


Ventajas y desventajas de la salud digitalizada



Ventajas y desventajas de la salud digitalizada
Google mal diagnostica, aunque las redes sociales y el email otorgan fluidez al contacto entre profesionales y pacientes. Los pro y los contra del ingreso de este actor en la ciencia médica.
No hay dudas, la tecnología y la medicina son ciencias que avanzan tomadas de la mano, separarlas de cuajo sería procurar tapar el sol con una mano. ¿Qué sería de la ciencia médica sin el auxilio de los modernos equipos de diagnóstico y tratamiento? Ahora bien, ante esta estrechez cabe el planteo: ¿Colaboran los gadgets, los videojuegos e Internet en el campo de la salud? La respuesta no aparece uniforme.
Aunque Google no viste uniforme blanco y no tiene matrícula profesional, no son pocos aquellos que acuden al motor de búsqueda para obtener información en torno a una dolencia propia o cercana a su círculo social. La difusión (y aceptación) de información errónea o no adecuada al caso es uno de los aspectos que más preocupa a los profesionales de la medicina. En este sentido, los especialistas aconsejan recordar que Internet debe ser una fuente de información estrictamente complementaria, supeditada al tratamiento directo con un profesional.
Si bien organismos como la Asociación Americana de Medicina reconocen que la confluencia de ámbitos resulta ideal -son cada vez más los médicos que se valen, por caso, de las social media para establecer contactos más fluídos-, se advierte a los profesionales la necesidad de proteger la privacidad de los pacientes y de mantener la necesaria distancia con ellos, según advierte Marina Alonso Álvarez en ''Redes sociales: También una herramienta útil entre médicos y pacientes'' publicada en el sitio PuroMarketing.com.
Ante ello, los beneficios están allí. No solamente espacios como Twitter y Facebook se erigen como plataformas de interacción entre las partes y de información accesible, sino que también el correo electrónico es cada vez más utilizado para pactar turnos, entregar recetas o resultados de diagnósticos clínicos, sin la necesidad de acudir a un centro de salud.

NOTICIA TECNOLOGICA


Microsoft lanza WorldWide Telescope, una aplicación para explorar el universo

14052008


Microsoft ha hecho pública, de manera gratuita, la versión beta de WorldWide Telescope, una mezcla de software y servicios web 2.0 que ofrece una visión nueva del universo. WorldWide Telescope ofrece imágenes de alta resolución obtenidas por el telescopio espacial del Hubble o el observatorio de Rayos X Chandra, entre otros. Los usuarios pueden navegar por la galaxia de forma libre, o seguir uno de los tours por el espacio exterior creados por astrónomos y educadores.
Microsoft ha hecho pública una aplicación que ofrece una visión sin precedentes del Universo. Llamada WorldWide Telescope, combina un software de escritorio con servicios de web 2.0 para ofrecer al usuario 12 terabytes de imágenes de alta resolución de galaxias, sistemas estelares, planetas y otros objetos celestiales.

NOTICIA TECNOLOGICA


Acer Aspire Timeline Ultra M5 ya está a la venta


La Acer Aspire Timeline Ultra M5 fue una ultrabook presentada originalmente en el CES 2012 de enero de este año. Ahora la compañía acaba de anunciar que su nueva laptop ya está a la venta, y el precio inicial que tiene es de $680 dólares. La portátil viene en dos tamaños: 14 y 15,6 pulgadas, y además posee un grosor de 0,81 pulgadas y pesa casi 2 kilogramos. Por dentro lleva un procesador Ivy Bridge, una tarjeta NVIDIA y una batería de larga duración.
Las especificaciones son las siguientes:
-Procesador: Intel Core Ivy Bridge.
-RAM: máximo 6GB de DDR3.
-Tarjeta gráfica: NVIDIA GeForce GT 640M LE de 1GB o Intel HD.
-Almacenamiento: disco duro de 500GB+SSD de 20GB.
-Unidad óptica: grabadora de DVD.
-Pantalla: 14 pulgadas o 15,6 pulgadas; resolución de 1366×768 píxeles; retroiluminación LED.
-Puertos: USB 3.0, Ethernet, HDMI.
-Conectividades: Bluetooth y WiFi.
-Otros: webcam HD de 1.3 megapíxeles, lectora de tarjetas, teclado con retroiluminación, parlantes de alta calidad.

La Acer Aspire Timeline Ultra M5 está a la venta en Norteamérica y pronto estará llegando 

NOTICIA TECNOLOGICA


Visualizing, red social sobre infografías

Visualizing, red social sobre infografías
Visualizing es una red social sobre infografías en la cual vamos a poder interactuar con todo tipo de personas que gustan de ese tipo de archivos o imágenes, teniendo en cuenta que la internet se ha caracterizado por promover ese tipo de material y que el mismo sea conocido rápidamente gracias a la potencia que tienen las redes sociales para promover ese tipo de propuestas. Respecto a Visualizing podemos decir que veremos, buscaremos y compartiremos infografías de todos los tipos ya que son muchos los intereses que se unen en esta plataforma de acuerdo a los usuarios que participan en ella, por lo que en definitiva será una muy buena alternativa a tener en mente.

NOTICIA TECNOLOGICA


Favmonster, guardar favoritos y compartirlos online

Favmonster, guardar favoritos y compartirlos online
Favmonster es un servicio en la web que está desarrollado para poder guardar y compartir nuestros favoritos en la red teniendo en cuenta que se trata de una plataforma en la cual vamos a ir indicando cuales son esas webs o sitios que más disfrutamos usar al momento de navegar y que por lo tanto queremos guardar para ver en otra ocasión futura. Respecto al uso de Favmonster debemos decir que vamos a poder guardar, almacenar y consultar nuestros favoritos online, además cada uno de ellos estará disponible en una interfaz muy interactiva para que sean observados por otras personas que consulten por ellos.

noticia tecnologica


uxtapose es un servicio en la web desarrollado para poder acortar enlaces online pero no limitándose únicamente a esa sencilla función que nos encontraremos en otros sitios más, ya que es posible acortar varios enlaces en una sola URL para después compartirla con nuestros amigos y contactos en la internet.
Juxtapose
Respecto al uso de Juxtapose debemos decir que al momento de acortar varios enlaces en uno solo tendremos que ingresar cada uno de ellos para que el sistema genere automáticamente la URL que tendremos que compartir con nuestros amigos y conocidos en la red, así de simple.
Finalmente, al mostrar el enlace con las URL´s acortadas tendremos una pequeña previsualización y su respectivo enlace, el cual accederemos de acuerdo a nuestro interés o búsqueda.

HISTORI DE LOS COMPUTADORES


HISTORIA DE LOS COMPUTADORES


Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo.


La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

La máquina analítica

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las caracteristicas de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Primeros Ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.



Ordenadores electrónicos

1944 marca la fecha de la primera computadora, al modo actual, que se pone en funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e información se introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud comparada con los equipos actuales, fue la primer máquina en poseer todas las características de una verdadera computadora.
La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el comportamiento de las sociedades.
PRIMERA GENERACION
De 1941 a 1958
Características Principales
 
Tecnología: válvulas de vacío, eran máquinas voluminosas, de alto consumo, caras y de vida limitada.
Avances del equipo físico: en la memoria se pasa de registros de válvulas a núcleos de ferrita; en la memoria secundaria, de tarjetas y cintas perforadas a tambores y cintas magnéticas..
Avances del equipo lógico: utilización de aritmética binaria, programación en ensamblador (para ayudar al programador).
 
Principales Equipos que se destacan
Mark I.
Un dispositivo electromecánico, basado en relés, fabricado para la Marina de EU por Howard Aitken e ingenieros de la IBM. La ultima en su clase. Sustituida por la electrónica.
 
Colossus.
Usado para descifrar los códigos de radio de los alemanes.
 
ABC.
Siglas de Atanasoff-Berry Computer, fabricada en la Univ. Estatal de Iowa. Conocida ahora como la primera computadora digital electrónica.
 
ENIAC.
La más famosa de las primeras computadoras, contenía más de 18.000 tubos de vacío. Fabricada para aplicaciones balísticas del Ejército de EU.
 
Manchester Mark I.
Producida por la Universidad de Manchester; la primera computadora con "programa almacenado". Hasta ese momento, todas las computadoras tenían que ser reprogramadas mediante cambios en el alambrado. Esto fue un gran avance.
 
UNIVAC I
Primera computadora creada por una firma comercial pertenecientes a John W. Mauchly y J. Prespert Eckert.
 
EDVAC, EDSAC, IAS, y las comerciales IBM 650, 701, 704, 709.

SEGUNDA GENERACION
De 1959 a 1964


Foto
Características Principales

Tecnología: en 1948 se inventó el transistor en los laboratorios de la Bell. Las ventajas del transistor son que es más pequeño, el consumo es menor y más barato que las válvulas.
Avances del equipo físico: se consolidan las memorias de ferrita. Aparecen los canales de E/S.
Avances del equipo lógico: aparecen los lenguajes de alto nivel (FORTRAN, COBOL, ALGOL, PL1).

Principales Equipos que se destacan

UNIVAC 1107, BURROUGH D-805, PDP-5 de DEC, y las científicas IBM 7070, 7090, 7094.
TERCERA GENERACION
De 1964 a 1970


Foto

Características Principales

Tecnología: se integran los transistores y aparecen los Circuitos Integrados (C.I.): SSI, MSI.
Máquinas: IBM 360. Aparecen las “Familias de Computadores”: computadores de distinta potencia y precio pero con la misma arquitectura y totalmente compatibles. Se produce una explosión de los mini-computadores: recursos más limitados pero muy asequibles (PDP-8,PDP-11).
Avances del equipo físico: tarjetas de circuito impreso (PCB); memorias electrónicas sustituyen a las de ferrita; aparecen las memorias cache; la CPU está basada en registros de propósito general.
Avances del equipo lógico: nuevos lenguajes de alto nivel (BASIC, PASCAL); gran avance en el S.O.; aparece la multiprogramación.

Principales Equipos que se destacan

IBM 360, PDP-8, PDP-11

CUARTA GENERACION
De 1971 a la fecha


Foto

Cronología de las Computadoras Personales

1983: IBM debuta su IBM PC XT con un disco duro de 10MB. Compaq produce un sistema compatible con la PC, pero transportable. Kaypro ofrece un sistema similar, con el CRT integrado, pero basado en CP/M. Microsoft Word 1.0 llega al mercado con poca espectacularidad, pero demostrando el interés de Microsoft en el software de aplicaciones.

1984: IBM introduce la IBM PC AT, un sistema basado en el Intel 80286 con varias innovaciones, incluyendo un bus de expansión de 16 bits, un disco duro de 20 MB, y 512 K de RAM. Apple abandona la Lisa en favor de su nueva línea de computadoras personales, la popular Macintosh.

1985: Aparecen Microsoft Windows 1.0, Windows 2.03 y GEM de Digital Research, demostrando así que el mundo de la PC se ha dado cuenta de que las aplicaciones gráficas estilo Mac, como Aldus PageMaker, son muy superiores a las de DOS.

1986: Intel introduce el microprocesador de 32 bits 80386 y Compaq desarrolla rápidamente la primera computadora basada en el chip. IBM comienza a perder terreno frente a los fabricantes de sistemas clonicos.

1987:. IBM intenta recuperar el mercado de la PC lanzando la familia PS/2. Estas PCs están basadas en una arquitectura Micro Channel no estándar y nuevo sistema operativo llamado OS/2 (creado en colaboración con Microsoft).

1988: OS/2 1.1 añade una interfaz gráfica, llamada Administrador de Presentaciones, al sistema operativo de 16 bits de IBM.

1990: La avalancha de interfases gráficas continua con la salida de Windows 3.0. Dieciocho meses después, Microsoft saca al mercado de Windows 3.1. Miles de aplicaciones comienzan a emigrar de DOS a Windows.

1991: Microsoft e IBM rompen sus relaciones comerciales y crean dudas sobre el futuro de OS/2. IBM continua apoyando el OS/2 y produce las versiones 2.0 y 2.1. Los acontecimientos de estos últimos años son frecuentes y cuantiosos. Las innovaciones a nivel de CPU son numerosas, pero el futuro de la computación personal se esta decidiendo por la arquitectura CISC (Computadora de Juego de Instrucciones Complejo) o RISC (Computadora de Juego de Instruciones Reducido).

Las líneas de batalla se dividen entre el chip PowerPC (creado por una colaboración de IBM, Apple y Motorola), el Alpha chip de Digital Equipment, el Pentium de Intel (y los chips clónicos de varios fabricantes).

Con la creciente marea de maquinas de escritorio de 32 bits, los principales productores de software se apresuran para tratar de capturar el mercado de los sistemas operativos de 32 bits. Los contendientes, por el momento, son: Microsoft con Windows NT y Windows 95, IBM con OS/2 Warp, Novell con UnixWare, SunSoft con Solaris, y otras derivadas de Unix (como el NeXT Oparating System de Steven Jobs).

La tendencia actual en el software de aplicaciones es la integración.

Características Principales

Los microprocesadores derivados de circuitos integrados han puesto las computadoras en el escritorio de la oficina. La cuarta generación, que comprende desde 1971 hasta el presente, se distingue por el microprocesador y la computadora personal. Las computadoras de la cuarta generación son aproximadamente 100 veces mas pequeñas que sus antecesoras y tan potentes como aquellas, y quizás mas.

Tecnología: se incrementa la escala de integración (LSI, VLSI). Los computadores con microprocesador se llamaron microcomputadores.

Avances del equipo físico: más integración de las memorias; los discos duros tienen más capacidad; aparecen los coprocesadores para el tratamiento en punto flotante FPU y los gestores de memoria o MMU.
Avances del equipo lógico: se normaliza el uso de la memoria virtual; los S.O. permiten la multitarea y el multiproceso; se producen avances en los lenguajes de alto nivel.


Principales Equipos que se destacan

Se pueden distinguir 4 fases:
1ª fase (1971 - 74): microprocesador de 4 bits, como el Intel 4004 con 2,300 TRT's y LSI.
2ª fase (1974 - 76): microprocesador de 8 bits, como el 8080 de Intel con 5,000 TRT's, el 6800 de Motorola con 6,000 TRT's, o el Z80 de Zilog.
3ª fase (1976 - 80): microprocesador de 16 bits, como el 8086 de Intel con 29,000 TRT's, el Z8000 de Zilog o el 68000 de Motorola.
4ª fase (1980 - 87): microprocesador de 32 bits, como el 80286 con 134,000 TRT's, el 80386 con 275,000 TRT's de Intel, o el 68020 y el 68030 de Motorola.
 
CUARTA GENERACION
De 1971 a la fecha


Foto

Cronología de las Computadoras Personales

1983: IBM debuta su IBM PC XT con un disco duro de 10MB. Compaq produce un sistema compatible con la PC, pero transportable. Kaypro ofrece un sistema similar, con el CRT integrado, pero basado en CP/M. Microsoft Word 1.0 llega al mercado con poca espectacularidad, pero demostrando el interés de Microsoft en el software de aplicaciones.

1984: IBM introduce la IBM PC AT, un sistema basado en el Intel 80286 con varias innovaciones, incluyendo un bus de expansión de 16 bits, un disco duro de 20 MB, y 512 K de RAM. Apple abandona la Lisa en favor de su nueva línea de computadoras personales, la popular Macintosh.

1985: Aparecen Microsoft Windows 1.0, Windows 2.03 y GEM de Digital Research, demostrando así que el mundo de la PC se ha dado cuenta de que las aplicaciones gráficas estilo Mac, como Aldus PageMaker, son muy superiores a las de DOS.

1986: Intel introduce el microprocesador de 32 bits 80386 y Compaq desarrolla rápidamente la primera computadora basada en el chip. IBM comienza a perder terreno frente a los fabricantes de sistemas clonicos.

1987:. IBM intenta recuperar el mercado de la PC lanzando la familia PS/2. Estas PCs están basadas en una arquitectura Micro Channel no estándar y nuevo sistema operativo llamado OS/2 (creado en colaboración con Microsoft).

1988: OS/2 1.1 añade una interfaz gráfica, llamada Administrador de Presentaciones, al sistema operativo de 16 bits de IBM.

1990: La avalancha de interfases gráficas continua con la salida de Windows 3.0. Dieciocho meses después, Microsoft saca al mercado de Windows 3.1. Miles de aplicaciones comienzan a emigrar de DOS a Windows.

1991: Microsoft e IBM rompen sus relaciones comerciales y crean dudas sobre el futuro de OS/2. IBM continua apoyando el OS/2 y produce las versiones 2.0 y 2.1. Los acontecimientos de estos últimos años son frecuentes y cuantiosos. Las innovaciones a nivel de CPU son numerosas, pero el futuro de la computación personal se esta decidiendo por la arquitectura CISC (Computadora de Juego de Instrucciones Complejo) o RISC (Computadora de Juego de Instruciones Reducido).

Las líneas de batalla se dividen entre el chip PowerPC (creado por una colaboración de IBM, Apple y Motorola), el Alpha chip de Digital Equipment, el Pentium de Intel (y los chips clónicos de varios fabricantes).

Con la creciente marea de maquinas de escritorio de 32 bits, los principales productores de software se apresuran para tratar de capturar el mercado de los sistemas operativos de 32 bits. Los contendientes, por el momento, son: Microsoft con Windows NT y Windows 95, IBM con OS/2 Warp, Novell con UnixWare, SunSoft con Solaris, y otras derivadas de Unix (como el NeXT Oparating System de Steven Jobs).

La tendencia actual en el software de aplicaciones es la integración.

Características Principales

Los microprocesadores derivados de circuitos integrados han puesto las computadoras en el escritorio de la oficina. La cuarta generación, que comprende desde 1971 hasta el presente, se distingue por el microprocesador y la computadora personal. Las computadoras de la cuarta generación son aproximadamente 100 veces mas pequeñas que sus antecesoras y tan potentes como aquellas, y quizás mas.

Tecnología: se incrementa la escala de integración (LSI, VLSI). Los computadores con microprocesador se llamaron microcomputadores.

Avances del equipo físico: más integración de las memorias; los discos duros tienen más capacidad; aparecen los coprocesadores para el tratamiento en punto flotante FPU y los gestores de memoria o MMU.
Avances del equipo lógico: se normaliza el uso de la memoria virtual; los S.O. permiten la multitarea y el multiproceso; se producen avances en los lenguajes de alto nivel.


Principales Equipos que se destacan

Se pueden distinguir 4 fases:
1ª fase (1971 - 74): microprocesador de 4 bits, como el Intel 4004 con 2,300 TRT's y LSI.
2ª fase (1974 - 76): microprocesador de 8 bits, como el 8080 de Intel con 5,000 TRT's, el 6800 de Motorola con 6,000 TRT's, o el Z80 de Zilog.
3ª fase (1976 - 80): microprocesador de 16 bits, como el 8086 de Intel con 29,000 TRT's, el Z8000 de Zilog o el 68000 de Motorola.
4ª fase (1980 - 87): microprocesador de 32 bits, como el 80286 con 134,000 TRT's, el 80386 con 275,000 TRT's de Intel, o el 68020 y el 68030 de Motorola.
 
EPOCA ACTUAL
En esta época las computadoras han inundado prácticamente cada rincón del planeta, a tal punto que no se puede pensar hoy en día en una oficina, escuela o institución moderna sin hacer una relación a la informática y las computadoras. Los grandes empresarios de la computación, IBM, Microsoft, Intel, etc. han logrado lo que se propusieron: hacer que las computadoras personales estén en los hogares de cientos de personas.
La red internacional de datos, Internet ha hecho posible que cada ciudadano de este planeta tenga cualquier tipo de información al alcance de su mano con solo tener acceso a una computadora personal.
En tan solo 25 años, desde 1973 hasta 1998 los sistemas computacionales han tenido una rapidez vertiginosa, reduciendo grandemente el tamaño de los equipos y aumentando su capacidad de producción y rapidez. ¿Qué nos depara el futuro? Eso, aún está por verse.

Mainframes, minicomputadoras, y microcomputadoras

Antes de la introducción del microprocesador a principios de los años 1970, las computadoras generalmente eran sistemas grandes y costosos cuyos dueños eran grandes corporaciones, universidades, agencias gubernamentales, e instituciones de tamaño similar. Los usuarios finales generalmente no interactuaban directamente con la máquina, sino que preparaban tareas para el computador, en equipos fuera de línea como perforadoras de tarjetas. Varias asignaciones para la computadora serían recogidas y procesadas  e procesos por lotes. Después de que el trabajo hubiera terminado, los usuarios podían recoger los resultados. En algunos casos podría tardar horas o días entre someter un trabajo al centro de computación y la recepción de la salida.
Una forma más interactiva de uso de la computadora se desarolló comercialmente por mediados de los años 1960. En un sistema de tiempo compartido, múltiples terminales permitieron a mucha gente compartir el uso de un procesador de computadora mainframe. Esto era común en aplicaciones empresariales y en ciencia e ingeniería.




X




arquitectura del ethernet

Arquitectura Ethernet
A finales de 1960, la universidad de hawai desarrolló una red de área amplia(WAN, Red que se extiende a través de un área geográfica mayor a una LAN).
La universidad necesitaba conectar varias computadora que estaban esparcidas a través de su campus. La pieza principal en el diseño de la red fue llamado Carrier-Sense Multiple Access with Collision Detection (CSMA/CD)Carrier-Sense 
significa que la computadora escucha el cable de la red y espera hasta un periodo de silencio para poder mandar su mensaje. Multiple Access se refiere a que múltiples computadoras pueden estar conectadas en el mismo cable de red. Collision Detection es una protección contra mensajes chocando en el transito.
Las redes Ethernet pueden utilizar diferentes tipos de cableado, cada uno con sus beneficios y problemas. Los tres cableados más comunes son Thinnet, Thicknet, y Twisted Pair (Par trenzado).

Thinnet ó 10Base2 puede transmitir datos a 10mbps por Banda Base(señales digitales), pudiendo llegar el cableado hasta 185 metros. Se utiliza cable coaxial RG-58 el cual es bastante barato por lo que a esta red también se le conoce como CheapNet. Un mismo segmento de cable puede soportar hasta 30 computadoras. Es el más utilizado y recomendado para redes pequeñas. Utiliza la topologia local bus, donde un mismo cable recorre todas y cada una de las computadoras.

Thicknet ó 10Base5 transmite datos a 10mbps por Banda Base en un cableado que puede alcanzar 500 metros. El cableado es grueso y es utilizado principalmente para largas oficinas o hasta todas las computadoras de un edificio. Del cable principal (backbone) salen cables usualmente Par Trenzado que se conectan a directamente a cada una de las computadoras. Se pueden conectar hasta 100 computadoras con este cableado en un mismo segmento.

Twisted Pair ó 10BaseT transmite datos a 10mbps por Banda Base y utiliza un Hub (concentrador)desde el cual con cable Par Trenzado se conecta cada una de las computadoras quedando en forma similar a estrella. El Hub queda en el centro de la estrella y funciona como "repetidor". El cable desde el Hub hasta la computadora no debe de medir más de 100 metros




Token Ring es una arquitectura de red desarrollada por IBM en los años 1970 con topología física en anillo y técnica de acceso de paso de testigo, usando un frame de 3 bytes llamado token que viaja alrededor del anillo. Token Ring se recoge en el estándar IEEE 802.5. En desuso por la popularización de Ethernet; actualmente no es empleada en diseños de redes.

Características principales

  • Utiliza una topología lógica en anillo, aunque por medio de una unidad de acceso de estación múltiple (MSAU), la red puede verse como si fuera una estrella. Tiene topologia física estrella y topología lógica en anillo.
  • Utiliza cable especial apantallado, aunque el cableado también puede ser par trenzado.
  • La longitud total de la red no puede superar los 366 metros.
  • La distancia entre una computadora y el MAU no puede ser mayor que 100 metros.
  • A cada MAU se pueden conectar ocho computadoras.
  • Estas redes alcanzan una velocidad máxima de transmisión que oscila entre los 4 y los 16 Mbps.
  • Posteriormente el High Speed Token Ring (HSTR) elevó la velocidad a 110 Mbps pero la mayoría de redes no la soportan

Funciones de mantenimiento / supervisión

  • Estación supervisora:
·         Monitoriza la red.
·         Envía periodicamente una trama de control (supervisor activo).
·         Vigila la presencia del testigo:
·         Si no lo encuentra tras cierto tiempo, lo pone de nuevo en circulación.
·         Vigila la longitud del anillo para que sea mayor o igual que 24 bits (un testigo completo) añadiendo más si es necesario.
·         Vigila la presencia de tramas huérfanas -> las retira:
·         Marca el bit M de las tramas.
·         Vigila la presencia de tramas mutiladas -> las retira.


Prioridades

  • Reserva:
·         Sobre el campo RR de una trama de datos.
·         La encargada de retirar la trama pone en circulación el testigo con ese nivel de prioridad.
·         Las reservas pueden reescribirse por otras de mayor prioridad, se guardan y se usan después

ANSI para la transmisión de datos en redes de computadoras de área extendida o local (LAN) mediante cable de fibra óptica. Se basa en la arquitectura token ring y permite una comunicación tipo Full Duplex. Dado que puede abastecer a miles de usuarios, una LAN FDDI suele ser empleada como backbone para una red de área amplia (WAN).

Funcionamiento

Una red FDDI utiliza dos arquitecturas token ring, una de ellas como apoyo en caso de que la principal falla. En cada anillo, el tráfico de datos se produce en dirección opuesta a la del otro.[1] Empleando uno solo de esos anillos la velocidad es de 100 Mbps y el alcance de 200 km, con los dos la velocidad sube a 200 Mbps pero el alcance baja a 100 km. La forma de operar de FDDI es muy similar a la de token ring, sin embargo, el mayor tamaño de sus anillos conduce a que su latencia sea superior y más de una trama puede estar circulando por un mismo anillo a la vez.
FDDI se diseñó con el objeto de conseguir un sistema de tiempo real con un alto grado de fiabilidad. Se consideró como un objetivo de diseño la transmisión virtualmente libre de errores. Es por esto, entre otras cosas, que se optó por la fibra óptica como medio para el FDDI. Además se especificó que la tasa de error total del anillo completo FDDI no debiera exceder un error cada 1e9 bits (es decir, un error por gigabit) con una tasa de pérdida de paquetes de datos que tampoco excediese 1e9. En el caso que se produzca un fallo en una estación o que se rompa un cable, se evita automáticamente la zona del problema, sin la intervención del usuario, mediante lo que se conoce como “curva de retorno” (wrapback). Esto ocurre cuando el anillo FDDI detecta un fallo y direcciona el tráfico hacia el anillo secundario de modo que pueda reconfigurar la red. Todas las estaciones que se encuentran operando correctamente se mantienen en línea e inalteradas. Tan pronto como se corrige el problema, se restaura el servicio en dicha zona.

Características

La red FDDI tiene un ciclo de reloj de 125 MHz y utiliza un esquema de codificación 4B/5B que permite al usuario obtener una velocidad máxima de transmisión de datos de 100 Mbps. Ahora bien, la tasa de bits que la red es capaz de soportar efectivamente puede superar el 95% de la velocidad de transmisión máxima. Con FDDI es posible transmitir una trama de red, o diversas tramas de tamaño variable de hasta 4500 bytes durante el mismo acceso. El tamaño de trama máximo de 4500 bytes está determinado por la técnica de codificación 4B/5B de FDDI.
Las especificaciones de FDDI permiten que existan un máximo de 500 estaciones FDDI (conexiones físicas) directamente sobre cada anillo paralelo. Las estaciones FDDI utilizan una dirección de 45 bytes, definida por la IEEE. La oficina de normalización del IEEE administra la asignación de las direcciones a todas las estaciones FDDI.
El cable de fibra multimodo con un diámetro exterior del núcleo de 62.5 micrones (um) y un diámetro exterior del revestimiento de 125 μm (62.5/125) es el tipo de medio con el que empezó a operar la red FDDI. Esto se debe a que el estándar FDDI especifica las características de estación a estación y de cable de planta sobre la base del cable 62.5/125 para proporcionar un puerto de referencia común que permite verificar si existe conformidad.

Frame Relay o (Frame-mode Bearer Service) es una técnica de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducida por la iutp a partir de la recomendación I.122 de 1988. Consiste en una forma simplificada de tecnología de conmutación de paquetes que transmite una variedad de tamaños de tramas o marcos (“frames”) para datos, perfecto para la transmisión de grandes cantidades de datos.
Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo haría una red privada punto a punto, esto quiere decir que es orientado a la conexión.
Las conexiones pueden ser del tipo permanente, (PVC, Permanent Virtual Circuit) o conmutadas (SVC, Switched  circuito virtual. Por ahora sólo se utiliza la permanente. De hecho, su gran ventaja es la de reemplazar las líneas privadas por un sólo enlace a la red.
El uso de conexiones implica que los nodos de la red son conmutadores, y las tramas deben llegar ordenadas al destinatario, ya que todas siguen el mismo camino a través de la red, puede manejar tanto tráfico de datos como de voz.
Al contratar un servicio Frame Relay, contratamos un ancho de banda determinado en un tiempo determinado. A este ancho de banda se le conoce como CIR (Commited Information Rate). Esta velocidad, surge de la división de Bc (Committed Burst), entre Tc (el intervalo de tiempo). No obstante, una de las características de Frame Relay es su capacidad para adaptarse a las necesidades de las aplicaciones, pudiendo usar una mayor velocidad de la contratada en momentos puntuales, adaptándose muy bien al tráfico en ráfagas. Aunque la media de tráfico en el intervalo Tc no deberá superar la cantidad estipulada Bc.

Aplicaciones y Beneficios

  • Reducción de complejidad en la red. elecciones virtuales múltiples son capaces de compartir la misma línea de acceso.
  • Equipo a costo reducido. Se reduce las necesidades del “hardware” y el procesamiento simplificado ofrece un mayor rendimiento por su dinero.
  • Mejora del desempeño y del tiempo de respuesta. penetracion directa entre localidades con pocos atrasos en la red.
  • Mayor disponibilidad en la red. Las conexiones a la red pueden redirigirse automáticamente a diversos cursos cuando ocurre un error.
  • Se pueden utilizar procedimientos de Calidad de Servicio (qos) basados en el funcionamiento Frame Relay.
  • Tarifa fija. Los precios no son sensitivos a la distancia, lo que significa que los clientes no son penalizados por conexiones a largas distancias.
  • Mayor flexibilidad. Las conexiones son definidas por los programas. Los cambios hechos a la red son más rápidos y a menor costo si se comparan con otros servicios.
  • Ofrece mayores velocidades y rendimiento, a la vez que provee la eficiencia de ancho de banda que viene como resultado de los múltiples circuitos virtuales que comparten un puerto de una sola línea.
  • Los servicios de Frame Relay son confiables y de alto rendimiento. Son un método económico de enviar datos, convirtiéndolo en una alternativa a las líneas dedicadas.
  • El Frame Relay es ideal para usuarios que necesitan una conexión de mediana o alta velocidad para mantener un tráfico de datos entre localidades múltiples y distantes .
  • Opcionales WEB, Libros virtuales: redes...

domingo, 29 de abril de 2012

noticia tecnologica


Samsung adelanta a Nokia como el mayor fabricante mundial de móviles

Se acabó un reinado de 14 años. Samsung ha arrebatado por primera vez a Nokia el liderazgo mundial fabricante de móviles durante el primer trimestre del año. La finlandesa ocupaba este puesto desde 1998 pero el auge de los smartphones y las continuas dificultades de Nokia para adaptarse a los cambios han precipitado el final de su dominio.
Según la consultora Strategy Analytics, la coreana Samsung vendió entre enero y marzo 93,5 millones de móviles frente a los 82,7 millones de Nokia. Apple se quedó en tercer lugar con 35 millones de iPhone vendidos, un 9,5% del mercado mundial. En el competitivo segmento de los teléfonos inteligentes, los smartphones, Samsung vendió 44 millones de unidades en los tres primeros meses, más del triple que Nokia que solo colocó 11,9 millones de móviles.
La noticia coincide con la presentación de unos resultados récord de Samsung, que dobló sus beneficios entre enero y marzo hasta los 5.150 millones de dólares y los triplicó en su división de aparatos móviles. Nokia, sin embargo, presentó la semana pasada unos resultados desastrosos, con más de 1.500 millones de euros de pérdidas y una caída en ventas del 29%.
Samsung está más fuerte que nunca. Su línea de smartphones Galaxy, todos basados en Android, el sistema operativo de Google, ha sido hasta ahora la única capaz de hacer frente al iPhone de Apple. El Galaxy Note, por ejemplo, a mitad de camino entre un móvil y una tableta, con una pantalla de 5,3 pulgadas que muchos consideran excesiva, vendió cinco millones de unidades en solo cinco meses. La surcoreana se prepara ahora para presentar la semana que viene en Londres el que confía sea su siguiente gran éxito, el móvil Samsung Galaxy SIII. “Esperamos que la demanda del Galaxy SIII sea muy fuerte”, dijo Robert Yi, vicepresidente de Samsung.
La situación de Nokia es preocupante para muchos analistas. Las ventas de su línea de smartphones basados en Windows Phone no acaban de arrancar todo lo rápido que la finlandesa necesita para salir del agujero. El único dato oficial son dos millones de teléfonos Lumia vendidos en el primer trimestre, insuficiente para compensar la caída que está experimentando en sus móviles de gama intermedia.

noticia tecnologica


Nace una red social española de networking avanzado


Konópolis es la nueva red social que nace hoy en Internet para el intercambio de soluciones entre particulares, profesionales y empresas; una nueva herramienta comunicativa multinivel que permitirá la difusión diaria de iniciativas mediante networking avanzado, con el objetivo de dar a conocer propuestas, resolver consultas sobre cualquier actividad, conectar usuarios y divulgar conocimientos sin necesidad de intermediarios.
El intercambio de soluciones es la pieza central de esta nueva red online que, a través de múltiples aplicaciones integradas, permitirá a los usuarios disponer de una cartera de asesores personalizada. Konópolis proporcionará a cada uno de ellos una red social completa gratuita, con un sistema de puntuación sensible a cada aportación que realicen en la página.
De esta manera, el usuario podrá colaborar con otros contactos para la resolución de consultas y valorar nuevas actividades en su área de especialización.

El sistema de consultas rápidas permite dar y recibir soluciones constantemente, notificando a los miembros de la red las novedades sobre el sector en el que se hayan dado de alta.
Asimismo, a través del blog personal integrado, todos los usuarios podrán publicar iniciativas, experiencias y conocimientos, mejorando su posicionamiento y visibilidad e incrementando su número de seguidores en la red. Otra de las funcionalidades de este proyecto multimedia es la sección de promociones, un espacio interactivo donde las empresas difundirán su imagen de marca, eventos, productos y servicios, de manera que los usuarios particulares puedan conocer fácilmente las promociones más interesantes geolocalizadas, según su zona de interés. Esta nueva red social se retroalimenta a través del contenido publicado por los usuarios, así como la propia red de contactos de los mismos, que fomentará su capacidad de resolución y las posibilidades de interacción.