martes, 24 de julio de 2012

DESDE LA REPÚBLICA DOMINICANA: Pez gato es uno de los más dañinos y peligrosos: Ministerio de Medio Ambiente

DESDE LA REPÚBLICA DOMINICANA: Pez gato es uno de los más dañinos y peligrosos: Ministerio de Medio Ambiente deben tener cuidado porque varias especies de este pez gato pueden resultar letales en el organismo humano, algunas se pueden comer pero varias son bastante toxicas..

miércoles, 8 de octubre de 2008

La DELL



Dell, Inc es una compañía multinacional que desarrolla, fabrica, vende y apoya las computadoras personales y otros productos relacionados con. Based in Round Rock, Texas , Dell employs more than 88,000 people worldwide. Con sede en Round Rock, Texas, Dell emplea a más de 88.000 personas en todo el mundo.

Dell grew during the 1980s and 1990s to become (for a time) the largest seller of PCs and servers. Dell creció durante los años 1980 y 1990 para convertirse (por un tiempo) el mayor vendedor de PCs y servidores. As of 2008 , it held the second spot in computer-sales within the industry behind the Hewlett-Packard Company . A partir de 2008 que se celebró el segundo lugar en ventas de computadoras dentro de la industria detrás de la Hewlett-Packard Company. The company currently sells personal computers , servers , data storage devices , network switches , software , computer peripherals and televisions . La empresa actualmente vende computadoras personales, servidores, dispositivos de almacenamiento de datos, conmutadores de red, software, periféricos y televisores.

In 2006, Fortune magazine ranked Dell as the 25th-largest company in the Fortune 500 list, 8th on its annual Top 20 list of the most-admired companies in the United States. In 2007 Dell ranked 34th and 8th respectively on the equivalent lists for the year. En 2006, la revista Fortune como Dell ocupó la 25 ª empresa más grande en el Fortune 500 lista, 8 en su Top 20 anual de la lista de los más admirados en los Estados Unidos. En 2007, Dell ocupó el 34 ª y 8 ª respectivamente en el equivalente listas para el año. A 2006 publication identified Dell as one of 38 high-performance companies in the S&P 500 which had consistently out-performed the market over the previous 15 years. Una publicación de 2006 de Dell identificado como uno de 38 de alto rendimiento en las empresas S & P 500 que ha realizado fuera del mercado durante los últimos 15 años.

Mejores marcas de computadoras.

La marca Apple más atractiva para los consumidores a nivel mundial

appleworld.jpg

La marca Apple es cada vez más atractiva en el mercado fuera de los EEUU, según un estudio de las principales marcas intenacionales. El estudio de 33 marcas de los EEUU abarcando desde Noviembre del año pasado hasta Enero de este año indica que Apple ha subido un 17.7 por ciento de 30,000 consumidores mayores de 13 años.Mientras que el resto de las marcas de los EEUU pierden campo, empresas como Apple y Google siguen subiendo, de acuerdo a CNNMoney.com.Las marcas más populares que han bajado son Coca Cola (-15,6%), McDonald’s(-11.1%), Nike (-8,9%) y Yahoo(-8.9%). Las marcas que han ganado popularidad son Disney (17.4%), Microsoft (20.6%), National Geographic (13.9%), Google (11.6%) y Apple.


Tipos de computadoras

Supercomputadoras

Una supercomputadora es el tipo de computadora más potente y más rápido que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica.

Cray computer

Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, ésto para disipar el calor que algunos componentes alcanzan a tener.Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:

1. Búsqueda y estudio de la energía y armas nucleares.
2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
3. El estudio y predicción de tornados.
4. El estudio y predicción del clima de cualquier parte del mundo.
5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.

Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año.

Macrocomputadoras o Mainframes

Las macrocomputadoras son también conocidas como Mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida.


mainframe

Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las sup ercomputadoras ueden ejecutar un sólo
programa más rápido que un mainframe.

En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio,
hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, ésto para ocultar los cientos de cables d e los periféricos , y su temperatura tiene que estar controlada.

Minicomputadoras

En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y ésto ayudo a reducir el precio y costos de mantenimiento .


minicomputadora

Las minicomputadoras , en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo.En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicacio nes multiusuario.

Microcomputadoras o PC´s

Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chip", o sea un circuito
integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.


microcomputadora

El término PC se deriva de que para el año de 1981 , IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.

Existen otros tipos de microcomputadoras , como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal.

En la actualidad existen variados tipos en el diseño de PC´s:

1. Computadoras personales, con el gabinete tipo minitorre, separado del monitor.
2. Computadoras personales portátiles "Laptop" o "Notebook".
3. Computadoras personales más comunes, con el gabinete horizontal, separado del
monitor.
4. Computadoras personales que están en una sola unidad compacta el monitor y el CPU.
5. Las computadoras "laptops" son aquellas computadoras que están diseñadas para poder ser
transportadas de un lugar a otro. Se alimentan por medio de baterías recargables , pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display).
6. Estaciones de trabajo o Workstations

Las estaciones de trabajo se encuentran entre las minicomputadoras y las macrocomputadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesam iento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para:

Aplicaciones de ingeniería

CAD (Diseño asistido por computadora)

CAM (manufactura asistida por computadora)

Publicidad

Creación de Software

En redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local.

Tecnologia

comunicación





tecnología

tecnología Imprimir E-mail


la tecnología tiene una enorme capacidad de reproducción y es motor de cambios sociales.


el cerebro procesa 400 mil millones de bits de información por segundo.


conocimiento + tecnología = innovación

Cuando la tecnología busca una solución a los problemas que se plantean en la sociedad, lo hace relacionando la técnica (sus conocimientos, herramientas y capacidad inventiva), con la ciencia (el campo de los conocimientos científicos) y con la estructura económica y sociocultural del medio (las relaciones sociales, las formas organizativas, los modos de producción, los aspectos económicos, el marco cultural, entre otros aspectos)

La tecnología surge al enfocar determinados problemas técnicos sociales con una concepción científica y dentro de un cierto marco económico y sociocultural; está íntimamente vinculada con la ciencia y la complementariedad entre ambas se incrementa cada vez más. La tecnología utiliza un método propio, diferente del método científico por cuanto sus finalidades son diferentes. Sus métodos en consecuencia, serán distintos.

La tecnología es el conjunto ordenado de conocimientos y los correspondientes procesos que tienen como objetivo la producción de bienes y servicios, teniendo en cuenta la técnica, la ciencia y los aspectos económicos, sociales y culturales involucrados. El alcance del término se extiende a los productos resultantes de esos procesos que deben responder a necesidades o deseos de la sociedad y tener como propósito contribuir a mejorar la calidad de vida.

Resumiendo, se puede decir que la ciencia está asociada al deseo del hombre de conocer, mientras que la técnica y la tecnología lo están a la voluntad del hombre de hacer, para satisfacer sus deseos y necesidades.


de la biosfera a la tecnosfera

La estructura microcósmica del metabolismo y la comunicación en la biosfera ( especialmente en relación a las redes bacterianas ) ofrecen metáforas o herramientas conceptuales para entender los procesos autoorganizativos de las redes cooperativas en la tecnosfera. Partimos del análisis del origen y expresión mínima de la vida como fusión entre sistemas autónomos y estructuras formales ( template ). Esta fusión entre un sistema dinámico auto mantenido ( autónomo) y estructuras moleculares recombinables da lugar al origen de la información en la naturaleza: la información génetica. Si entendemos por comunicación la transmisión de información entre dos sistemas autónomos ( capaces de interpretacion ). las redes bacterianas de transferencia genética horizontal constituyen el primer ejemplo de una red de comunicación global: un sistema de evolucion abierta cooperativa responsable del mantenimiento de la mayor parte del ecosistema planetario y de la mayor red de innovación biotecnológica que conocemos. No es por tanto descabellado proyectar ( de la biosfera a la tecnosfera ) este marco teórico para reconceptualizar el desarrollo tecnológico humano y redescubrir la autonomia tecnologica, las comunidades de desarrollo de software libre y las redes electronicas de intercambio de información como fundamentos de autoorganización social cooperativa.



los mapuches chilenos no quieren entrar en windows

El mensaje fue aprobado durante una reunión de 'lonkos', 'machis' y 'werkenes' en el cerro Ñielol de Temuco, 610 kilómetros al sur de Santiago, donde en 1881 los indígenas sellaron la paz con el ejército chileno después de los tres siglos de la Guerra de la Araucanía.

El proyecto tuvo su origen en noviembre de 2003, cuando el creador de Microsoft suscribió un protocolo de cooperación tecnológica con el gobierno del presidente chileno, Ricardo Lagos, empeñado en difundir la informática y el uso de los ordenadores en Chile.

Como parte de ese acuerdo, la lengua mapuche (mapudungún) sería incorporada al sistema operativo de los equipos informáticos con los aportes del ministerio de Educación chileno, la Universidad de la Frontera de Temuco y la Corporación Nacional de Desarrollo Indígena (Conadi).

patrimonio intangible

"El Pueblo Mapuche desde su relación con el sistema colonial español y posteriormente con el Estado Chileno, hemos sido objeto de una política de usurpación permanente de los derechos sobre nuestro patrimonio tangible como es el territorio, la tierra, los recursos del suelo y subsuelo, los bosques, la biodiversidad, los ríos, los mares y los lagos, entre otros", señaló la nota de los líderes indígenas.

"Las autoridades Mapuches y sus instituciones tradicionales tenemos la firme convicción que los derechos sobre patrimonio intangible como son nuestro idioma Mapudugun, espiritualidad y religiosidad son los últimos recursos que poseemos", añadió el mensaje.


adn

El adn ha demostrado ser el mejor medio de comunicación de información en los últimos millones de años. Sin embargo, puede que no se haya considerado toda la utilidad que presenta. Por ejemplo, los estudios sobre la utilización del ADN para realizar computación paralela, gracias a su bajo consumo energético y de espacio.


la revolución de la tecnología de la información manuel castells

Por tecnología entiendo exactamente lo que Harvey Brooks y Daniel Bell, "el uso de un conocimiento científico para especificar modos de hacer cosas de un modo reproducible".

Lo que caracteriza la revolución tecnológica actual no es la centralidad del conocimiento y la información, sino la aplicación de ese conocimiento e información a la generación de conocimiento y los dispositivos de procesamiento/ comunicación de la información, en un circuito de retroalimentación acumulativa que se da entre la innovación y los usos de la innovación.

El proceso de retroalimentación generado entre la introducción de nueva tecnología, su uso y su desarrollo hacia nuevos territorios se produce mucho más rápidamente bajo el nuevo paradigma tecnológico. Como resultado, la difusión de la tecnología amplía sin límites el poder de la tecnología, al ser apropiada y redefinida por sus usuarios. Las nuevas tecnologías de la información no son simples herramientas para ser aplicadas, sino que son procesos para ser desarrollados.


fotonica

Uno de los retos importantes de la fotónica es la computación óptica. Los ordenadores personales actuales no pasan mucho más allá de los 3.000.000.000 de sencillas operaciones por segundo, y aún así a veces nos parecen lentos, pero estamos cerca del límite de velocidad con corrientes de electrones. Usando la luz podríamos aún aumentar mucho la velocidad de cálculo, tal vez hacerlos un millón de veces más rápidos.

vida y muerte de un foton


alta capacidad

Se hace necesario sistema de alta capacidad de transmisión. los conductores eléctricos quedan saturados. por las fibras ópticas podemos enviar la información en forma de luz láser a la velocidad de la luz.


tecnología

Tecnología, del griego Teckne, que a su vez proviene de arte, técnica u oficio" y tratado o conocimiento". Puede definirse como el conjunto de conocimientos propios de un arte industrial así también como el conocimiento de un arte u oficio sin importar su rango, aunque en la práctica esta definición debe ser ampliada. Analizando el papel desempeñado en el desarrollo científico, se puede decir que la Tecnología es la propiedad para aplicar los conocimientos de la Ciencia en los procesos de producción. La Tecnología sería así el lazo de unión de las ideas científicas y la aplicación práctica de dichas ideas

Actualmente el conocimiento científico se duplica aproximadamente cada 5 años.

Las áreas donde están surgiendo más innovaciones tecnológicas son energía nuclear, informática, robótica, biotecnología, telecomunicaciones y ciencias del espacio.

software

También conocido como programática o equipamiento lógico, es el conjunto de programas que puede ejecutar el hardware para la realización de las tareas de computación a las que se destina. Se trata del conjunto de instrucciones que permite la utilización del ordenador.

software libre, mambo open source


En España el índice de piratería es altísimo: el 65% de los programas usados son copias ilegales.


código fuente

es un conjunto de líneas de código que conforman un bloque de texto que normalmente genera otro código mediante un compilador o intérprete para ser ejecutado por una computadora.

Normalmente se refiere a la programación de software. Un único programador o un equipo de ellos escriben el código fuente en el lenguaje de programación elegido. Posteriormente en un proceso de compilación el código fuente se traduce en código objeto.


opendocument, el formato que usa openoffice.org ya es norma iso rené mérou bulma

OpenOffice.org 2 guarda sus documentos, ya sean bases de datos, graficos, presentaciones o simples documentos escritos en formato OpenDocument.

También Koffice lo tiene bastante implementado y está trabajando para usarlo en todas sus posibilidades.

Así como también Abiword 2.4 2.4.2 , eZ publish 3.6, con la extensión para OpenOffice, Knomos case management 1.0 [2], Scribus 1.2.2, TextMaker 2005 beta [4].

En palabras de Alberto Barrionuevo, activista prosoftware libre, antipatentes de software y proestándares abiertos. Ésto significa por ejemplo que ya difícilmente te podrán exigir en el entorno público que mandes un documento en Word cuando existe un estándar abierto de derecho que cumple las mismas funciones que Word (formato ofimático editable).

Esperemos que ahora haya menos reticencias por parte de las instituciones públicas que siguen usando estándares de mercado (o monopolizados) aún cuando es de cajón que es un abuso inaceptable por obligar a la gente a comprarse el software de una compañia determinada para poder comunicarse con ellos.


hardware

Se denomina hardware o soporte físico al conjunto de elementos materiales que componen un ordenador. En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, tarjetas, armarios o cajas, periféricos de todo tipo y otros elementos físicos.

El hardware se refiere a todos los componentes físicos (que se pueden tocar) de la computadora: discos, unidades de disco, monitor, teclado, ratón (mouse), impresora, placas, chips y demás periféricos. En cambio, el software es intocable, existe como ideas, conceptos, símbolos, pero no tiene sustancia. Una buena metáfora sería un libro: las páginas y la tinta son el hardware, mientras que las palabras, oraciones, párrafos y el significado del texto son el software. Una computadora sin software sería tan inútil como un libro con páginas en blanco.

ordenador

es un sistema digital con tecnología microelectrónica capaz de procesar información a partir de un grupo de instrucciones denominado programa. La estructura básica de una computadora incluye microprocesador (CPU), memoria y dispositivos de entrada / salida (E/S), junto a los buses que permiten la comunicación entre ellos.


periférico de ordenador

Un periférico es un dispositivo de soporte físico a un ordenador, que le permite interactuar con el exterior por medio de la entrada, salida y el almacenamiento de datos así como la comunicación entre ordenadores. El término suele aplicarse a los dispositivos que no forman parte indispensable de una computadora (como lo son cpu y memoria) y que son, en cierta forma, opcionales. También se suele utilizar habitualmente para definir a los elementos que se conectan externamente a un puerto de la misma, aunque muchos de ellos se han vuelto tan indispensables para los ordenadores personales de hoy en día que ya son integrados desde la fabricación en la tarjeta principal.

Los dispositivos periféricos pueden dividirse en cuatro categorías principales:

almacenamiento

Su función principal es asegurar la permanencia de la información producida y/o manejada por el ordenador después de que este ha sido apagado.

Grabadora de CD
Grabadora de DVD
Lector de CD
Lector de DVD
Disco duro
Memoria USB
Tarjetero flash
Grabadora de cinta de copia de seguridad

entrada

Aportan datos al ordenador para su tratamiento por parte de la CPU. Son la interfaz por medio de la cual el ser humano introduce información al mismo.

Cámara web (Webcam)
Escáner
Ratón
Teclado
Micrófono
Conversor Analógico digital/Capturadora de datos
Escáner de código de barras
Joystick
Lápiz óptico
Pantalla táctil
Tableta digitalizadora

salida

Se encargan de transmitir los datos procesados por el CPU de vuelta a la persona que está utilizando la computadora por diferentes medios.

Monitor
Impresora
Pantall
Altavoces
Tarjeta de sonido

comunicación

Su función es servir de canal entre una o más computadoras o entre la computadora y un dispositivo periférico externo.


Fax-Módem
Tarjeta de red
Controladores de puertos (seriales, paralelos, etc.)
Hub USB


cinco tecnologías que dominarán la escena en los próximos años

  • 1.Telefonía IP.
  • 2. Identificación por biometría e identificación pro radiofrecuencia (Rfid).
  • 3. Computación cuántica.
  • 4. Nanotecnología.
  • 5. Tecnologías inalámbricas de banda ancha, estilo WiMax.

nuevas tecnologías

Últimamente se están desarrollando sistemas electrónicos basados en el espín, por ejemplo la mayoría de los discos duros utilizan la magnetorresistencia (MR) o la magnetorresistencia gigante (MRG); ambos son producto del espín. A esa nueva tecnología se le llama espintronica.

También se baraja la posibilidad de aprovechar las propiedades del espín para futuros ordenadores cuánticos.

En el caso de los bosones se puede forzar a un sistema de bosones a posicionarse en el mismo estado cuántico. Este es el principio fundamental del funcionamiento de un láser en el que los fotones, partículas de espín entero, se disponen en el mismo estado cuántico produciendo trenes de onda de fase.

El transistor, inventado en 1947 en los Laboratorios Bell en Murray Hill, Nueva Jersey, por tres físicos, Bardeen, Brattain y Shockley (que recibieron el Premio Nóbel por este descubrimiento), hicieron posible el procesamiento de impulsos eléctricos a alta velocidad en el modo binario de interrupción y amplificación, permitiendo de esta forma la codificación de la lógica y de la comunicación con y entre máquinas: llamamos a estos dispositivos de procesamiento semiconductores, y la gente comúnmente los llama chips (actualmente conformados por millones de transistores


marenostrum

es el nombre del ordenador más potente de Europa y el cuarto en todo el mundo de acuerdo con la lista de noviembre de 2004 realizada por las comparativas LINPACK. Mare Nostrum proviene del nombre ('mar nuestro') en latín que los romanos usaban para nombrar al mar Mediterráneo.

El superordenador MareNostrum fue construido en dos meses en el Centro Técnico de IBM en San Fernando de Henares (Madrid) y está siendo instalado en el Centro Nacional de Superconmutación, en la Universidad Politécnica de Cataluña. Este supercomputador fue anunciado por la empresa IBM y por la ministra española de Educación y Ciencia María Jesús San Segundo. El ordenador consta de 3564 procesadores IBM PowerPC 970 Fx (a 2.2 GHz). Al final de su construcción constará de 4.564 procesadores. Los procesadores PowerPC 970 tienen una arquitectura de 64 bits y los nodos del ordenador se comunican entre sí a través de una red Myrinet. El sistema cuenta con 9 terabytes de memoria central y 128 terabytes de disco. MareNostrum utiliza nodos BladeCenter JS20 y está basado en el sistema operativo Linux. El nuevo ordenador ocupa una instalación de 160 m² y pesa 40.000 kg. El ordenador cuenta con una capacidad de cálculo de 20.43 teraflops y al ser finalizado alcanzará la cifra de 40 teraflops.

Cabe destacar que el ordenador está físicamente instalado en el interior de una antigua capilla construida a principios del siglo XX en el campus de la universidad, dentro de un cubo de cristal de 9 x 18 x 5 metros, para la construcción del cual se han empleado más de 19 toneladas de cristal y 26 de hierro.

El MareNostrum será utilizado en la investigación del genoma humano, la estructura de las proteínas y en el diseño de nuevos medicamentos. Su uso se abrirá a la comunidad científica nacional e internacional a partir de la primavera de 2005. El tiempo de cálculo será otorgado por un comité de asignación en base a la valía de los proyectos a realizar.

Siempre que los avances científicos y tecnológicos se producen con esta rapidez, el entusiasmo por seguir adelante no deja lugar a una cavilación acerca de los pro y los contras que puede provocar.

Un caso histórico es la Revolución Industrial. En la vorágine de construir las mejores máquinas, los científicos de la época dejaron de lado el factor contaminación ambiental, ignorando que, un siglo más tarde, el haber utilizado máquinas a vapor inició un proceso prácticamente irreversible de calentamiento global y contaminación atmosférica.

Otro caso más que clásico es la fórmula de la Teoría de la Relatividad, que abrió camino a dos aplicaciones bien polarizadas y antagónicas: el uso de la medicina atómica para salvar vidas, y la construcción de bombas atómicas para destruirlas.

Y parece ser que el hombre no aprende de sus errores, porque en el afán de ver "hasta dónde podemos llegar", los genetistas y otros científicos de hoy anuncian día a día orgullosamente sus nuevas hazañas, sin tener en cuenta las consecuencias no sólo ambientales, sino también éticas y morales.


el mare nostrum se alía con sus clones lavanguardia.es

La nueva Red de Supercomputación coloca sus 7 centros en la elite de los superordenadores

Àlex Barnet | La supercomputación, que básicamente permite la simulación informática en campos tan diversos como la física, la ingeniería o el clima, se afianza en España. La Red Española de Supercomputación (RES), inaugurada ayer en Barcelona y aglutinada en torno al superordenador Mare Nostrum, permite que por primera vez España disponga de siete centros de cálculo en el Top500 de superordenadores mundiales. Cinco están hacia el final de la lista, pero esto no quita importancia al hecho.

El superordenador Mare Nostrum, gestionado por el Barcelona Supercomputing Center (BSC), un consorcio formado por el Ministerio de Educación, la Generalitat y la UPC, es el núcleo de la red. Tras el reciente recambio y aumento de los chips del Mare Nostrum, sus procesadores originales han sido repartidos entre distintos superordenadores españoles, aumentando sus prestaciones y dando pie a la RES, que es una red para compartir capacidad de cálculo y trabajos.

"Esta red es un elemento vertebrador de la ciencia en España, ya que lleva una gran capacidad de cálculo a muchos sitios. En cifras globales, ofrece a los investigadores 80 millones de horas de cálculo anuales. Esto son muchos proyectos porque un estudio importante necesita unos dos millones de horas", manifestó Mateo Valero, director del BSC.

La RES está formada por el superordenador barcelonés (95 billones de cálculos por segundo) y otros seis nodos todos ellos unidos por conexiones de alta velocidad y con herramientas para compartir cálculos. Entre los otros seis centro destaca la Universidad Politécnica de Madrid (21.000 billones de cálculos). Los otros cinco nodos - Instituto de Astrofísica de Canarias y universidades de Cantabria, Málaga, Valencia y Zaragoza- pueden realizar 4.506 billones de cálculos por segundo cada uno de ellos.

La repartición de los 4.812 procesadores originales del Mare Nostrum entre sus clones ha permitido aumentar el rendimiento de éstos y colocarlos en el Top500, la lista que controla los superordenadores mundiales. Mare Nostrum, que actualmente tiene 10.240 procesadores, es el mayor de Europa y el quinto del mundo, mientras que la Politécnica de Madrid tiene el puesto 34. Los otros cinco están muy por detrás y ocupan posiciones casi correlativas del 412 al 417. Algo que demuestra que alguien hizo muy bien los números para repartir y elevar el listón global de la red.

La inauguración de la RES, que contó con la presencia, entre otros, de la ministra de Educación y Ciencia, Mercedes Cabrera, y del conseller de Innovació, Universitat i Empresa, Josep Huguet, fue pródiga en imágenes que intentaban visualizar el alcance del proyecto. "Son recursos de cálculo que hace poco tiempo eran impensables e inalcanzables", dijo la ministra.

En la misma línea, el ya citado Mateo Valero, anunció que estaban en marcha los pasos para ampliar las instalaciones con un nuevo edificio y volvió a lanzar la idea de un Mare Nostrum "cien veces más potente que el actual, algo que podría ser una realidad en cuatro o cinco años". La idea, adelantada ya en su día por este diario, es la utilización en el futuro superordenador de los chips Cell (desarrollados por IBM, Sony y Toshiba) y que son la base de la consola PlayStation 3. El BSC e IBM, que es el socio tecnológico del Mare Nostrum, llevan meses estudiando esta posibilidad.

En sus dos años de vida, el Mare Nostrum ha acogido unos 200 proyectos de investigación.


earth simulator


estructura de la falange macedonica

Los griegos y macedonios, marcaron un verdadero progreso creando la falange, cuerpo compacto como los anteriores; pero que, por su organización y armamento, merece un estudio especial.

Los elementos que la constituían eran los siguientes:

La primera unidad era de 4 hombres y constituía la emonotía;
2 emonotías formaban la dimería o hemiloquía 8 hombres
2 dimerías formaban la hilera 16 hombres
2 hileras formaban la diloquía 32 hombres
2 diloquias formaban la tetrarquía 64 hombres
2 tetrarquías formaban la taxciarquía 128 hombres
2 taxciarquías formaban la sintagma 256 hombres

La sintagma era ya una unidad cuadrada de 16 hombres por lado:

2 sintagmas constituían la pentacosiarquía 512 hombres
2 pentacosiarquía constituían la chillarchía 1024 hombres
2 chillarchías constituían la merarquía 2048 hombres
2 merarquías constituían la falangarquía 4096 hombres

Programas escensiales en una computadora.

Programa (computación)

Un programa, o también llamado programa informático, programa de computación o programa de ordenador, es simplemente un conjunto de instrucciones para una computadora. Las computadoras necesitan de los programas para funcionar, y un programa no hace nada a menos que sus instrucciones sean ejecutadas por el procesador. Un programa se puede referir tanto a un programa ejecutable como a su código fuente, el cual es transformado en un ejecutable cuando es compilado.

Generalmente el código fuente de los programas es escrito por profesionales conocidos como programadores. El código fuente es escrito en un lenguaje de programación que sigue uno de los siguientes dos paradigmas: imperativo o declarativo. El código fuente puede ser convertido en una imagen ejecutable por un compilador. Cuando se pide que el programa sea ejecutado, el procesador ejecuta el programa instrucción por instrucción, hasta que el programa termina.

De acuerdo a sus funciones, los programas pueden ser clasificados en software de sistema y software de aplicación. Pueden ejecutarse muchos programas de forma simultánea en un mismo ordenador, a lo cual se le llama multitarea.

Entre llos programas mas importantes que debe tener una computadora se destacan los siguientes:

Microsoft Office (MSO) es una suite ofimática desarrollada por la empresa Microsoft. Funciona bajo plataformas operativas Microsoft Windows y Apple Mac OS, aunque también lo hace en Linux si se utiliza un emulador como Wine o CrossOver Office. Las versiones más recientes de Office son llamadas Office system ('Sistema de oficina') en vez de Office suite ('Suite de Office') lo que refleja la inclusión de servidores.

Office hizo su primera aparición en 1989 en un Mac, y más adelante en Windows en 1990. El término fue inicialmente usado de marketing para vender un set de aplicaciones, que previamente se vendían separadamente. El principal argumento de venta era que comprar el paquete completo resultaba más barato que comprar cada aplicación por separado. La primera versión de Office contenía las aplicaciones Microsoft Word, Microsoft Excel y Microsoft PowerPoint. Adicionalmente, una llamada "versión profesional" de Office incluía también Microsoft Access y Schedule Plus.

Con el trasncurso de los años las aplicaciones de Office han crecido substancialmente desde un punto de vista técnico, incluso comparten funcionalidades, tales como: corrector ortográfico común, un integrador de datos OLE y el lenguaje de scripts de Visual Basic para Aplicaciones. Microsoft también posiciona a Office como una plataforma de desarrollo para la línea de software para negocios.

Las versiones actuales son Office 2007 para Windows, lanzada el 30 de enero de 2007 y Office 2004 para Mac, liberada el 19 de mayo de 2004. Office 2007, anunciado el 15 de febrero de 2006 fue liberado el 30 de noviembre de 2006 para negocios a través de los canales de MSDN. Una nueva interfaz de usuario y un nuevo formato de archivo primario basado en XML caracterizan esta versión. La siguiente versión para Mac, Office 2008, está planificada para enero de 2008.

Este paquete como tal es, probablemente, el más antiguo y de mayores prestaciones. Hay quienes creen que es uno de los mejores productos conjuntos (set) de microsoft, y desde hace más de 10 años es el más popular. El iWork de Mac es un rival para ese paquete propietario.

Microsoft siguió con Office la estela del paquete Lisa Office System de Apple que ya en 1983 ofrecía procesador de texto y hoja de cálculo entre sus siete aplicaciones, bajo un sistema operativo con ventanas, escritorio y papelera, 12 años antes del Windows 95.

Nero Burning ROM es un popular programa para producir CDs y DVDs, que funciona en Microsoft Windows y Linux. La compañía responsable de su desarrollo es Nero AG, anteriormente Ahead Software. Nero Express viene gratuitamente con muchos grabadores de discos ópticos.

Antivirus

Los antivirus son programas cuya función es detectar y eliminar Virus informáticos y otros programas maliciosos (a veces denominados malware).

Básicamente, un antivirus compara el código de cada archivo con una base de datos de los códigos (también conocidos como firmas o vacunas) de los virus conocidos, por lo que es importante actualizarla periódicamente a fin de evitar que un virus nuevo no sea detectado.

Actualmente a los antivirus se les ha agregado funciones avanzadas, como la búsqueda de comportamientos típicos de virus (técnica conocida como Heurística) o la verificación contra virus en redes de computadoras.

Normalmente un antivirus tiene un componente que se carga en memoria y permanece en ella para verificar todos los archivos abiertos, creados, modificados y ejecutados en tiempo real. Es muy común que tengan componentes que revisen los adjuntos de los correos electrónicosscripts y programas que pueden ejecutarse en un navegador web (ActiveX, Java, JavaScript). salientes y entrantes, así como los

Los virus, gusanos, spyware,... son programas informáticos que se ejecutan normalmente sin el consentimiento del legítimo propietario y que tienen la características de ejecutar recursos, consumir memoria e incluso eliminar o destrozar la información.

Una característica adicional es la capacidad que tienen de propagarse. Otras características son el robo de información, la pérdida de esta, la capacidad de suplantación, que hacen que reviertan en pérdidas económicas y de imagen.

Antivirus

Es conveniente disponer de una licencia activa de antivirus. Dicha licencia se empleará para la generación de discos de recuperación y emergencia. Sin embargo no se recomienda en una red el uso continuo de antivirus.

El motivo radica en la cantidad de recursos que dichos programas obtienen del sistema, reduciendo el valor de las inversiones en hardware realizadas.

Aunque si los recursos son suficientes. Este extra de seguridad puede ser muy útil.

Sin embargo los filtros de correos con detectores de virus son imprescindibles, ya que de esta forma se asegurará una reducción importante de decisiones de usuarios no entrenados que pueden poner en riesgo la red.

Firewalls

Filtrar contenidos y puntos de acceso. Eliminar programas que no estén relacionados con la actividad. Tener monitorizado los accesos de los usuarios a la red, permite asimismo reducir la instalación de software que no es necesario o que puede generar riesgo para la continuidad del negocio. Su significado es barrera de fuego y no permite que otra persona tenga acceso desde otro equipo al tuyo.

Temas acerca de la seguridad

Existen ideas instaladas parte por las empresas de antivirus parte en la cultura popular que no ayudan a mantener la seguridad de los sistemas de información.

  • Mi sistema no es importante para un hacker. Este tema se basa en la idea de que no introducir passwords seguras en una empresa no entraña riesgos pues ¿Quién va a querer obtener información mía?. Sin embargo dado que los métodos de contagio se realizan por medio de programas automáticos, desde unas máquinas a otras, estos no distinguen buenos de malos, interesantes de no interesantes... Por tanto abrir sistemas y dejarlos sin claves es facilitar la vida a los virus.
  • Estoy protegido pues no abro archivos que no conozco. Esto es falso, pues existen múltiples formas de contagio, además los programas realizan acciones sin la supervisión del usuario poniendo en riesgo los sistemas.
  • Como tengo antivirus estoy protegido. Únicamente estoy protegido mientras el antivirus sepa a lo que se enfrenta y como combatirlo. En general los programas antivirus no son capaces de detectar todas las posibles formas de contagio existentes, ni las nuevas que pudieran aparecer conforme las computadoras aumenten las capacidades de comunicación.
  • Como dispongo de un firewall no me contagio. Esto únicamente proporciona una limitada capacidad de respuesta. Las formas de infectarse en una red son múltiples. Unas provienen directamente de accesos a mi sistema (de lo que protege un firewall) y otras de conexiones que realizó (de las que no me protege). Emplear usuarios con altos privilegios para realizar conexiones tampoco ayuda.
  • Tengo un servidor web cuyo sistema operativo es un unix actualizado a la fecha. Puede que este protegído contra ataques directamente hacia el núcleo, pero si alguna de las aplicaciones web (PHP, Perl, Cpanel, etc.) está desactualizada, un ataque sobre algún script de dicha aplicación puede permitir que el atacante abra una shell y por ende ejecutar comandos en el unix.

Resumen

Los retos de seguridad son cada vez mayores, conforme se confía en el desempeño de tareas a los sistemas de información los daños que la pérdida de información pueden llegar a poner en peligro la continuidad del negocio.

Hemos de disponer de una visión global en cuanto a la seguridad:

  • Contraseñas difíciles de averiguar.
  • Disponer de elementos pasivos/activos de detección de riesgos.
  • Mantener los sistemas de información con las actualizaciones que más impacten en la seguridad.
  • Evitar programas cuyo comportamiento respecto a la seguridad no sea idóneo.
  • Mantener separación de sistemas operativos.
  • Mantenimiento progresivo de la computadora en la que se trabaja.


Redes de Ordenadores



¿Qué son las Redes de ordenadores?

Una red de ordenadores es un conjunto de equipos informáticos interconectados con el objeto de poder compartir información y recursos entre ellos.

Además de ordenadores, se pueden conectar impresoras, modems, concentradores (hubs), encaminadores (routers), interruptores (switchs), etc...

Tipos de Redes Locales

Según el ámbito territorial que ocupe una red, podemos distinguir:

  • LAN: Red de área Local (Local Area Net)

    Redes que abarcan una o varias salas, incluso en diferentes plantas de un mismo edificio o en edificios cercanos.

  • MAN: Red de área Metropolitana (Metropolitan Area Net)

    Redes que conectan equipos situados en diferentes puntos de un núcleo urbano..

  • WAN: Red de área Amplia (Wide Area Net)

    Redes que incluyen ordenadores de diferentes provincias o incluso países.

Las LAN y MAN suelen interconectarse mediante cables de cobre (categorías 5 ó6), auqnue también existen redes inalámbricas; se puede usar fibra óptica para conectar las centralitas, pero de ahí hasta los domicilios de cada usuario se usa cable de cobre.

Las WAN pueden interconectarse mediante fibra óptica, cables subterráneos o submarinos, enlaces vía satélite, etc...


Arquitecturas Cliente-Servidor y Peer To Peer

  • Cliente-Servidor

    Se denomina Servidor al ordenador que presta servicios a los demás, es decir, el que comparte sus recursos o gestiona la información que le piden los demás.

    Clientes son los ordenadores que piden recursos o información al servidor.

  • Peer To Peer (P2P)

    Estas redes no son centralizadas, sino que cada PC puede funcionar como cliente en unos casos y servidor en otro.

La arquitectura cliente-servidor es más interesante en algunos casos, como la publicación de páginas web o correo electrónico, aunque los servicios sólo se prestan mientras el servidor esté funcionando correctamente.

Para que un ordenador pueda ofrecer sus servicios a otro, debe estar ejecutando un programa también llamado servidor. Del mismo modo, los ordenadores ciente sólo pueden acceder a un servidor mediante un programa cliente.

Los ordenadores que actúan como servidores deben ser más potentes, rápidos y con mejores prestaciones que los demás, ya que deben trabajar para varios clientes simulténeamente. De lo contrario, los servicios serían prestados muy lentamente o de forma defectuosa.

En el caso de redes P2P, si alguno de los ordenadores no funciona, los demás podrán seguir intercambiando sus recursos.

Ambas arquitecturas pueden usarse simultáneamente en la misma red.