martes, 27 de febrero de 2018

ARQUITECTURA DE COMPUTADORES

La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema que conforma una computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.
La arquitectura de una computadora explica la situación de sus componentes y permite determinar las posibilidades de un sistema informático, con una determinada configuración, pueda realizar las operaciones para las que se va a utilizar. La arquitectura básica de cualquier ordenador completo está formado por solo 5 componentes básicos: procesador, memoria RAM, disco duro, dispositivos de entrada/salida y software.Resultado de imagen para que es la arquitectura de computadoras

PROCESADORES
 Un sistema jerárquico es un conjunto de sistemas interrelacionados, cada uno de los cuales se organiza de manera jerárquica, uno tras otro, hasta que alcanza el nivel más bajo de subsistema elemental. Una posible clasificación seria:
1.      Nivel de Componente. Los elementos de este nivel son difusiones de impurezas tipo y de tipo N en silicio, polisilicio cristalino y difusiones de metal que sirven para construir los transistores.
2.      Nivel Electrónico. Los componentes son transistores, resistencias, condensadores y diodos construidos con las difusiones del nivel anterior. Esta tecnología de muy alta escala de integración o VLSI es la que se utiliza en la fabricación de circuitos integrados. En este nivel se construyen las puertas lógicas a partir de transistores.
3.      Nivel Digital. Se describe mediante unos y ceros son las puertas lógicas, biestables y otros módulos tanto combinacionales como secuenciales. Este nivel es la aplicación del algebra booleana y las propiedades de la lógica digital.
4.      Nivel RTL. El nivel de transferencia de registros RTL será el preferido para la descripción de los computadores. Elementos típicos en este nivel de abstracción son los registros y módulos combinacionales aritméticos.
5.      Nivel PMS. Este nivel es el más alto de la jerarquía. Las siglas PMS provienen del ingles Processor Memory Switch. Con elementos de jerarquía los buses, memorias, procesadores y otros módulos de alto nivel.






INFORMATICA 10


DIFERENCIAS ENTRE LINUX Y WINDOWS


Tanto el Windows como el Linux, son ambos dos sistemas operativos cuya finalidad es la de usar los recursos de la informática. Estos dos sistemas tienen bastantes diferencias y en función del usuario, se les exige diferentes características. La principal diferencia que podemos encontrar está en el precio. Así como Windows es un sistema operativo comercial, se vende y se compra, el Linux es un sistema de código abierto, lo que significa que es gratuito y que lo puedes descargar de Internet.

Lo que destaca en el sistema operativo Windows es su interfaz gráfica, que está siempre a la vanguardia de la tecnología, pero en cambio, experimenta algunos problemas de estabilidad. Linux en cambio es un sistema más estable.
Lo que sí está claro es que ambos sistemas no van a desaparecer. Windows siempre estará como un sistema para personas sin conocimientos profundos en informática y que lo quiere todo hecho, y Linux seguirá siendo ese sistema operativo alternativo y gratuito para aquellos usuarios más exigentes que no les gusta seguir al rebaño.
Resultado de imagen para diferencias entre windows y linux


Resultado de imagen para diferencias entre windows y linux

martes, 20 de febrero de 2018

EL HARDWARD

La REAL ACADEMIA ESPAÑOLA define al hardware como el conjunto de los componentes que conforman la parte material (física) de una computadora, a diferencia del SOFTWARE que refiere a los componentes lógicos (intangibles). Sin embargo, el concepto suele ser entendido de manera más amplia y se utiliza para denominar a todos los componentes físicos de una tecnología.
.


Resultado de imagen para que es  hardware

Hardware y sus componentes

Todo lo que podemos observar en nuestra computadora, es decir, sus partes externa e internas, también conocidas como dispositivos de entrada o salida, son, cada una de ellas un hardware. Vamos a analizarlas en detenimiento para conseguir una comprensión más profunda.
LA CPU
La CPU está formada por un conjunto de circuitos electrónicos digitales, encargados de recibir la información de los diferentes dispositivos de entrada o salida, procesarla y enviarla hacia estos de nuevo. Por lo tanto, constituye una de las partes fundamentales del hardware y del propio ordenador, al poder ejecutar y procesar una respuesta adecuada.
 PANTALLA

La pantalla del ordenador está diseñada para reproducir todas las acciones y mandatos que se ordenan realizar. 

RATÓN

El ratón es un dispositivo externo que ayuda a situarnos dentro de la pantalla, a través del movimiento del cursor y, que nos ayuda a seleccionar los elementos o funciones que deseemos en cada momento.


UNIDAD DE DISQUETES

Esta unidad permite la lectura o grabación de un disco óptico, a través de un rayo láser, situado en el interior de la computadora. No obstante, hay diferentes tipos de discos, ya que algunos solo permite lectura, otros de grabación y otros son, regrabables.


TECLADO

El teclado permite introducir dentro de la computadora la información que se desea. Por esto, es uno de los dispositivos principales, ayudando al correcto funcionamiento del ordenador. 

martes, 6 de febrero de 2018

QUIMICA

TEORÍA ATÓMICA

Resultado de imagen para teoria atomica mapa mental


Teoría atómica. Es una teoría de la naturaleza de la materia, que afirma que está compuesta por pequeñas partículas llamadas átomos La teoría atómica comenzó hace miles de años como un concepto filosófico y fue en el siglo XIX cuando logró una extensa aceptación científica gracias a los descubrimientos en el campo de la estequiometría. Los químicos de la época creían que las unidades básicas de los elementos también eran las partículas fundamentales de la naturaleza y las llamaron átomos (de la palabra griega atomos, que significa "indivisible") Gracias al electromagnetismo y la radiactividad, los físicos descubrieron que el denominado "átomo indivisible" era realmente un conglomerado de diversas partículassubatómicas (principalmente electronesprotones y neutrones), que pueden existir de manera separada. De hecho, en ciertos ambientes, como en las estrellas de neutrones, la temperatura extrema y la elevada presión impide a los átomos existir como tales. El campo de la ciencia que estudia las partículas fundamentales de la materia se denomina Física de Partículas

Teoría atómica de Dalton

Nacimiento de la teoría atómica moderna

Durante el siglo XVIII y los primeros años del siglo XIX, en su afán por conocer e interpretar la naturaleza, los científicos estudiaron intensamente las reacciones químicas mediante numerosos experimentos. Estos estudios permitieron hallar relaciones muy precisas entre las masas de las sustanciassólidas o entre los volúmenes de los gases que intervienen en las reacciones químicas. Las relaciones encontradas se conocen como leyes de la química. Entre las leyes fundamentales de la Química, hay algunas que establecen las relaciones entre masas, llamadas leyes gravimétricas y otras que relacionan volúmenes, denominadas leyes volumétricas. John Dalton desarrolló su modelo atómico, en la que proponía que cada elemento químico estaba compuesto por átomos iguales y exclusivos, y que aunque eran indivisibles e indestructibles, se podían asociar para formar estructuras más complejas (los compuestos químicos). Esta teoría tuvo diversos precedentes.

Descubrimiento de las partículas subatómicas

Hasta 1897, se creía que los átomos eran la división más pequeña de la materia, cuando J.J Thomson descubrió el electrón mediante su experimento con el tubo de rayos catódicos. El tubo de rayos catódicos que usó Thomson era un recipiente cerrado de vidrio, en el cual los dos electrodos estaban separados por un vacío. Cuando se aplica una diferencia de tensión a los electrodos, se generan rayos catódicos, que crean un resplandor fosforescente cuando chocan con el extremo opuesto del tubo de cristal. Mediante la experimentación, Thomson descubrió que los rayos se desviaban al aplicar un campo eléctrico (además de desviarse con los campos magnéticos, cosa que ya se sabía). Afirmó que estos rayos, más que ondas, estaban compuestos por partículas cargadas negativamente a las que llamó "corpúsculos" (más tarde, otros científicos las rebautizarían como electrones).

Descubrimiento del núcleo

En su experimento, Hans Geiger Ernest Marsden bombardearon partículas alfa a través de una fina lámina de oro (que chocarían con una pantalla fluorescente que habían colocado rodeando la lámina). Dada la mínima como masa de los electrones, la elevada masa y momento de las partículas alfa y la distribución uniforme de la carga positiva del modelo de Thomson, estos científicos esperaban que todas las partículas alfa atravesasen la lámina de oro sin desviarse, o por el contrario, que fuesen absorbidas. Para su asombro, una pequeña fracción de las partículas alfa sufrió una fuerte desviación. Esto indujo a Rutherford a proponer el modelo planetario del átomo, en el que los electrones orbitaban en el espacio alrededor de un gran núcleo compacto, a semejanza de los planetas y el Sol.

Descubrimiento de los isótopos

En 1913, Thomson canalizó una corriente de iones de neón a través de campos magnéticos y eléctricos, hasta chocar con una placa fotográfica que había colocado al otro lado. Observó dos zonas incandescentes en la placa, que revelaban dos trayectorias de desviación diferentes. Thomson concluyó que esto era porque algunos de los iones de neón tenían diferentes masas; así fue como descubrió la existencia de los isótopos.

Descubrimiento del neutrón

En 1928, Walther Bothe observó que el berilio emitía una radiación eléctricamente neutra cuando se le bombardeaba con partículas alfa. En 1932James Chadwick expuso diversos elementos a esta radiación y dedujo que ésta estaba compuesta por partículas eléctricamente neutras con una masa similar la de un protón. Chadwick llamó a estas partículas "neutrones".

Modelos cuánticos del átomo

El modelo planetario del átomo tenía sus defectos. En primer lugar, según la fórmula de Larmor del electromagnetismo clásico, una carga eléctrica en aceleración emite ondas electromagnéticas, y una carga en órbita iría perdiendo energía y describiría una espiral hasta acabar cayendo en el núcleo. Otro fenómeno que el modelo no explicaba era por qué los átomos excitados sólo emiten luz con ciertos espectros discretos.
La teoría cuántica revolucionó la física de comienzos del siglo XX, cuando Max Planck Albert Einstein postularon que se emite o absorbe una leve cantidad de energía en cantidades fijas llamadas cuantos. En 1913Niels Bohr incorporó esta idea a su modelo atómico, en el que los electrones sólo podrían orbitar alrededor del núcleo en órbitas circulares determinadas, con una energía y un momento angular fijos, y siendo proporcionales las distancias del núcleo a los respectivos niveles de energía.
En 1924Louis de Broglie propuso que todos los objetos particularmente las partículas subatómicas, como los electrones podían tener propiedades de ondasErwin Schrödinger, fascinado por esta idea, investigó si el movimiento de un electrón en un átomo se podría explicar mejor como onda que como partícula. La ecuación de Schrödinger, publicada en 1926, describe al electrón como una función de onda en lugar de como una partícula, y predijo muchos de los fenómenos espectrales que el modelo de Bohr no podía explicar.
En 1927Werner Heisenberg indicó que, puesto que una función de onda está determinada por el tiempo y la posición, es imposible obtener simultáneamente valores precisos tanto para la posición como para el momento de la partícula para cualquier punto dado en el tiempo. Este principio fue conocido como Principio de incertidumbre de Heisenberg.
Este nuevo enfoque invalidaba por completo el modelo de Bohr, con sus órbitas circulares claramente definidas. El modelo moderno del átomodescribe las posiciones de los electrones en un átomo en términos de probabilidades. Un electrón se puede encontrar potencialmente a cualquier distancia del núcleo, pero dependiendo de su nivel de energía tiende a estar con más frecuencia en ciertas regiones alrededor del núcleo que en otras; estas zonas son conocidas como orbitales atómicos.

WEBGRAFIA:

https://www.ecured.cu/Teor%C3%ADa_at%C3%B3mica  FECHA: 06-FEBRERO-2018 11:08

HISTORIA DEL COMPUTADOR



Una computadora electrónica, según el Diccionario de la Real Academia Española, es una: Máquina electrónica, analógica o digital, dotada de una memoria de gran capacidad y de métodos de tratamiento de la información, capaz de resolver problemas matemáticos y lógicos mediante la utilización automática de programas informáticos.

La computadora es un invento joven de no más de un siglo. Sin embargo es el resultado de múltiples creaciones e ideas de diversas personas a lo largo de varios años: por un lado, el ábaco que fue uno de los primeros dispositivos mecánicos para contar; por otro lado, la Pascalina, inventada por Blaise Pascal y después perfeccionada por Gottfried Wilhelm von Leibniz, permitía realizar cálculos de manera mecánica por medio de engranajes, y también, la tarjeta perforada asumió un papel importante en la computación.
En 1882 Charles Babbage inventa una “máquina diferencial”, que realiza cálculos de tablas simples. Diez años más tarde diseña la “máquina analítica”, que no fue construida hasta 1989. Esta máquina poseía elementos que influyeron en las subsiguientes computadoras: flujo de entrada, memoria, procesador e impresora de datos. Por esto, Babbage es considerado el "Padre de las Computadoras Modernas".
En 1944 se construye la MARK I, diseñada por un equipo encabezado por Howard H. Aiken. La máquina basa su funcionamiento en dispositivos electromecánicos llamados relevadores.
Von Neumann es otro personaje importante ya que proyecta el prototipo de los modernos procesadores electrónicos. El prototipo se basa en el concepto de programa memorizado.
A partir de la mitad del siglo XX el desarrollo de la computadora es mayor y más rápido. Este desarrollo se suele dividir en generación.


Primera Generación
En general se caracteriza por tres aspectos: primero, por el uso de bulbos (tubos de vacío); segundo, uso de programas en lenguaje de máquina, usualmente, en tarjetas perforadas, y finalmente, por ser enormes y costosas.


Segunda Generación
Sus características son: en primer lugar, se utilizan circuitos de transistores, en vez de bulbos; segundo, se programas en lenguajes de alto nivel, y por último, se utilizan para nuevas aplicaciones.


Tercera Generación
Al igual que las generaciones pasadas, tiene tres características:
I. Ahora utiliza circuitos integrados.
II. Utiliza sistemas operativos. El más famoso es el OS de IBM.
III. Aparecen minicomputadoras.


Cuarta Generación
Se dice que es la generación actual, aunque mucho ya mencionan una quinta.

En esta generación aparecen los microprocesadores, los núcleos magnéticos son remplazados por chips de silicio (almacenamiento de memoria) y un sinfín de cambios que continúan apareciendo día con día.