Después
de muchos estudios principalmente relacionados con el estudio acerca del
comportamiento de la luz, se abriría camino una nueva rama de la física, esta sería
la encargada de estudiar el comportamiento de los electrones, protones y
neutrones, hablamos de la física cuántica, esta nueva rama muy pronto llegaría a
descubrir que el comportamiento de la luz se podía clasificar en un amplio
espectro o abanico de frecuencias, a esto pronto se le denominaría espectro electromagnético.
Fue de
este descubrimiento que se encontró una gran aplicación para el mundo de las
telecomunicaciones, en la cual se empezó a aprovechar las bandas de dicho
espectro para el transporte de información, este mismo descubrimiento permitió
el descubrimiento de otras tecnologías como los radares.
Marco teórico
Es el
rango de todas las radiaciones electromagnéticas posibles. El espectro de un
objeto es la distribución característica de la radiación electromagnética de
ese objeto. El espectro electromagnético se extiende desde las bajas
frecuencias, hasta los rayos gamma, que cubren longitudes de onda de entre
miles de kilómetros y la fracción del tamaño de un átomo. Se piensa que el
límite de la longitud de onda corta está en las cercanías de la longitud PLANCK,
mientras que el límite de la longitud de onda larga es el tamaño del universo
mismo, aunque en principio el espectro sea infinito y continuo.
Generalmente
la radiación electromagnética se clasifica por la longitud de onda:
El
comportamiento de la radiación electromagnética depende de su longitud de onda.
Las frecuencias más altas tienen longitudes de onda más cortas, y las
frecuencias inferiores tienen longitudes de onda más largas. Su comportamiento también
depende de la cantidad de energía por cuanto que transporta. Guillermo Perez. (2010)
Bibliografia
Guillermo Perez. (2010). Espectro Electromagnético. 2018, de espectrometria https://www.espectrometria.com/espectro_electromagntico
Friday 23 February 2018
Experimento de Young
Introducción
Los distintos experimentos
realizados a lo largo de la historia han intentado demostrar cual fue la
verdadera naturaleza de la luz, ya que a muchos científicos han intentado
comprender los fenómenos que comprende la luz.
Por un lado tenemos la teoríacorpuscular de Newton, esta teoría afirma que la luz está compuesta por diminutas
partículas las cuales son emitidas a gran velocidad en línea recta por cuerpos
luminosos. José
Maria Lopez (2005)
Por otro lado tenemos la teoría ondulatoria
de Huygens, al contrario que la teoría
corpuscular esta afirma que la luz se propaga por ondas, sin embargo, dichas
ondas se encuentran formadas por ondas diminutas denominadas fotones. Esteban Moreno (2005)
En definitiva estas teorías no
presentaban ningún inconveniente, de hecho ambas teorías explicaban los fenómenos
de la luz y por lo tanto no podían ser descartadas, es entonces que se decide
realizar un nuevo experimento a cargo de Thomas Young.
Marco teórico
Thomas Young (1773 - 1829), fue un científico inglés, reconocido por
su experimento de la doble rendija que mostraba la naturaleza ondulatoria de la
luz, en principio Young ideo dicho experimento con la intención de descartar la
teoría corpuscular de la luz, posteriormente, se logró comprobar que la
naturaleza de la luz poseía ambas cualidades, de la cual se demostró resulto
una nueva teoría denominada teoría de la dualidad onda corpúsculo.
Por otro lado este experimento demostró
otro aspecto de la luz con respecto a los espectros electromagnéticos relacionados
con la física cuántica, mediante la cual se podía estudiar el trayecto de los
electrones, protones o neutrones, se debe tener en cuenta que para dicha época la
física cuántica aún no se había desarrollado. Laura Baz (2015).
Propuesta o experimento
Conclusiones
El experimento de Young no solo demostró
la teoría ondulatoria de la luz, sino que ha esto se sumó que la luz también se
encontraba formada por partículas, como se vio en el video, este experimento
llego a ser la base para física cuántica la cual muestra el comportamiento de
las partículas electromagnéticas como los electrones, neutrones y protones.
La
elección de una determinada arquitectura dependerá, del uso que se le desee
dar, en muchos casos los equipos son elegidos al azar, debido al poco
conocimiento que tienen los usuarios sobre el verdadero rendimiento de una
computadora. Otro factor que influye es la constante evolución de las arquitecturas,
ya que si bien se ha conseguido una estandarización en los equipos haciéndolos prácticamente
universales a excepción de ciertos componentes (en su mayoría relacionada con
el software), esto nos lleva a evaluar por sobre el rendimiento de una
computadora con respecto al ciclo de vida que pueda ofrecer, es decir evaluar
el coste de un equipo, hasta que este llegue a ser considerado “obsoleto”.
Para
poder evaluar el rendimiento de un equipo podemos emplear programas de benchmark,
con este programa podemos comparar distintos aspectos de una computadora
velocidad del procesador, velocidad de escritura/lectura del disco duro, etc. mixteco. (2009)
2.Medidas
de Rendimiento
soportepc. (2015)
Algunos
de los factores a tener en cuenta:
·Tiempo de respuesta corto para una determinada
pieza de trabajo.
·Alto throughput (tasa de procesamiento de
trabajo).
·Baja utilización de recursos computacionales.
·Alta disponibilidad del sistema de computación o
de la aplicación.
·Rápida compresión y descompresión de datos.
·Gran ancho de banda.
·Tiempo corto de transmisión de datos.
Otros
aspectos a tomar en cuenta con respecto al rendimiento:
Disponibilida, es la capacidad
de prueba y facilidad de mantenimiento y no en la fiabilidad.
Tiempo de respuesta, es el
tiempo total que se necesita para responder a una solicitud o servicio.
Velocidad de procesamiento, nos
permite ejecutar una gran cantidad de programas en un determinado tiempo esta ejecución
se realiza de forma paralela entre los distintos que se estén ejecutando.
Capacidad del canal, es la
tasa de información limitante que se puede lograr con una probabilidad de
error.
Latencia,
es un tiempo de retraso entre la causa y el efecto de algún cambio físico en
el sistema siendo observado.
Ancho de banda, mide
la tasas de bits transferidos por segundo, el ancho de banda se encuentra
presente por sobre todo en los buses de una computadora, para obtener una mayor
velocidad se emplean buses en paralelo.
Rendimiento, también
conocido como throughput, es sinónimo con el consumo de ancho de banda digital.
Consumo de energía, cantidad
eléctrica usada por una computadora.
Luis Rincón Corcóles. (2012).
3.Relación
entre métricas
El
principal objetivo es conseguir el mayor rendimiento posible con el menor coste,
el rendimiento por lo tanto permite obtener una medida cuantitativa que permite
comparar unos computadores frente a otros y decidir cual nos aporta mayores
ventajas.
-Aceleración
de rendimiento¸ es
la relación que existe entre dos computadoras
-Aceleración
del tiempo, es el
tiempo que tarda una computadora en ejecutar un programa con respecto a otro,
estos valores son inversamente proporcional al rendimiento.
electropedia.
(2012).
4.Medidas
de rendimiento populares
Unidades de medidas de
rendimiento global
MIPS
Son
los millones de instrucciones por segundo que ejecuta un procesador para un
programa determinado. Una mayor cantidad de MIPS indica mayor velocidad de una
computadora.
MIPS VAX
El
tiempo que tarda una computadora en ejecutar un programa VAX11/780.
MEGAFLOPS nativos y relativos
Surgen
ya que los MIPS no hacen distinción entre operaciones normales y operaciones en
coma flotante. Nos indican millones de instrucciones en coma flotante por
segundo que se realiza para un determinado programa.
electropedia.
(2012).
5.Costo
A
la hora de calificar los costos se puede tener en cuenta muchos aspectos, por
un lado en motherboard:
Se trata de una aplicación que
nos permite testear la performance de la PC o portátil que estamos usando. Este
software nos permite realizar una serie de pruebas para comprobar todas las áreas
críticas del hardware de nuestro equipo, por lo general este tipo de programas
se emplea para ver las principales características de cualquier equipo, su
principal misión es la de poner a prueba componentes como la memoria RAM,
velocidad del procesador, velocidad de lectura y escritura del disco duro,
tarjeta gráfica, etc.
Se puede mencionar otros
programas, que pueden variar el tipo de análisis que ejecute, poniendo mayores límites
a una PC.
-3DMARK.
-PRIME95.
-NeoTeo.
-Hyper PI.
Comparación de 4 equipos de laboratorio
Características
PC1
Características
PC2
Puntuación
800
Puntuación
797
Procesador
3.19 GHz
Procesador
3.19 GHz
CPU
Score
514
Float ops: 98712850
Integers ops: 481965048
Hash ops: 1379417
CPU
Score
513
Float ops: 98841563
Integers ops: 482026967
Hash ops: 1368857
RAM Speed
9354 MB/s
RAM Speed
9067 MB/s
GPU Score
131
Direct3D11: 7FPS
OpenCL: 269 GFLOPS
GPU Score
131
Direct3D11: 7FPS
OpenCL: 269 GFLOPS
Disk Score
28
Write: 100 MB/S
Read: 104MB/S
Disk Score
27
Write: 92 MB/S
Read: 98MB/S
S.O.
Windows 8
S.O.
Windows 8
Características
PC3
Características
PC4
Puntuación
764
Puntuación
805
Procesador
3.19 GHz
Procesador
3.19 GHz
CPU
Score
500
Float ops: 95032504
Integers ops: 485918080
Hash ops: 1304998
CPU
Score
520
Float ops: 98841563
Integers ops: 482026967
Hash ops: 1368857
RAM Speed
5938 MB/s
RAM Speed
9273 MB/s
GPU Score
123
Direct3D11: 6FPS
OpenCL: 267 GFLOPS
GPU Score
131
Direct3D11: 7FPS
OpenCL: 271 GFLOPS
Disk Score
26
Write: 82 MB/S
Read: 100MB/S
Disk Score
27
Write: 95 MB/S
Read: 104 MB/S
S.O.
Windows 8
S.O.
Windows 8
Conclusiones
De los resultados obtenidos se
puede sacar la siguiente conclusión, por un lado se usaros equipos idénticos pero
los resultados obtenidos nos muestra que dichos valores varían, esto puede
darse a diversos factores como por ejemplo la arquitectura interna de cada uno
de los elementos, ya que s bien los diseños son idénticos la arquitectura
interna puede variar en función de la precisión que pueda tener cada uno de los
elementos que componen un elemento, por ejemplo en el caso de un
microprocesador este se compone de transistores los cuales pueden tener
factores que varíen en milésimas el rendimiento del mismo, por otro lado lo
mismo se puede decir de los discos duros en los cuales los cabezales son los
encargados de determinar la velocidad de escritura y lectura, estos componentes
mecánicos pueden presentar variaciones en su funcionamiento otros factores que
pueden afectar al disco duro son la capacidad de almacenamiento del mismo ya
que un disco de mayor capacidad tendrá mayores tiempos de lectura/escritura,
para finalizar se puede emplear otros programas de los anteriores mencionados
para realizar las mismas pruebas y estos pueden ser capaces de obtener resultados
diferentes, en función del tipo de prueba que pueda implementar a cada equipo,
por lo tanto los programas de merchmark suelen ser de gran utilidad para poner
a prueba el rendimiento real de cualquier PC que se desee adquirir.
Friday 18 August 2017
Evolución de las computadoras
Primera Generación 1951-1958
Esta generación se caracteriza porque las computadoras empleaban válvulas de vacío para procesar información, para introducir datos se empleaba un tipo de programación especial basada en tarjetas perforadas.
Eckert y Mauchly contribuyeron al desarrollo de la primera generación construyendo la UNIVAC I, la IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas, sin embargo IBM se dio a conocer en el mundo de las computadoras con IBM 701 en 1953. No obstante fue IBM 650 el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM.
Características
Como se dijo anteriormente estos equipos usaban válvulas de vacío para procesar información, estos equipos ocupaban grandes espacios, además de utilizar grandes cantidades de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
Usaban tarjetas perforadas para entrar datos y los programas, usaban cilindros magnéticos para almacenar información.
Segunda generación 1959-1964
El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Los programas de computadoras también mejoraron, los programas se elaboraron para tener una distribución portátil, esto permitió que el programa se pueda ejecutar en varios equipos. El escribir un programa ya no requería entender el hardware de una computadora.
Las computadoras de la segunda generación eran más pequeñas y rápidas que las de válvula, y se usaban para nuevas aplicaciones, como sistemas de control aéreo, simulaciones para uso general, se empezaron a emplear las computadoras para el almacenamiento de registros.
Algunas de las computadoras de la época fueron IBM 1401, Honeywell 800 y su serie 5000, UNIVAC M460
Caracteristicas
El uso de transistores para procesar la información, 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo de vacío, usaba pequeños anillos magnéticos para almacenar información e instrucciones.
Tercera generación
1964-1971
Esta generación se caracteriza
por la implementación de circuitos integrados, en las cuales se colocan miles
de componentes electrónicos, en una integración en miniatura. Antes de los
circuitos integrados las computadoras estaban diseñadas para aplicaciones matemáticas
o de negocios, los circuitos integrados permitieron a los fabricantes de
computadoras estandarizar sus modelos.
La IBM 360 y CDC 6600, fueron las
primeras computadoras en implementar circuitos integrados, la CDC 6600 era capaz de ejecutar 3000000
mips.
Características
Se desarrollaron circuito
integrados para procesar la información, las computadoras pueden realizar
tareas de procesamiento o análisis numérico a la vez, se desarrollan las mini
computadoras IBM 360 y DEC PDP-1
Cuarta generación 1971-1981
Las siguientes tecnologías son
las que marcan el paso a la cuarta generación, el remplazo de las memorias con
núcleos magnéticos, por los chips de silicio y la colocación de muchos más
componentes en un chip.
Intel Corporation es la primera compañía
en lanzar el primer microprocesador de 4 bits, que en un espacio de 4 x 5 mm contenía
2250 transistores, este primer microprocesador fue bautizado como el 4004.
Esta generación se caracterizó
por los grandes avances tecnológicos en tan corto tiempo, en 1977 aparecen las
primeras microcomputadoras, fabricadas por empresas como Apple Computer, Radio Shack y Commodore Busíness Machines. Por su
parte IBM se integra al mercado con su Perconal
Computer, y lo más importante se introduce un sistema operativo estandarizado,
el MS-DOS.
Características
Se desarrolló el microprocesador,
cada chip puede hacer diferentes tareas, se desarrollan microcomputadoras, se
desarrollan supercomputadoras, se remplaza la memoria de anillos magnéticos por
la memoria de chips de silicio.
Quinta generación 1982-presente
Se puede tomar en cuenta 2
grandes avances tecnológicos, en 1892 se crea la primera supercomputadora con
capacidad de proceso paralelo, diseñada por SEYMOUY CRA, el proceso en paralelo
es aquel que presenta computadoras capaces de trabajar con múltiples
microprocesadores a la vez, para realizar dicho proceso se debe llevar a cabo
una programación especial que permita asignar diferentes tareas de un mismo
proceso a los diversos microprocesadores que intervienen, para realizar estos
procesos se diseñaron módulos de memoria compartida capaces de asignar áreas de
cache para cada procesador.
Características
Se desarrolla el microprocesador,
se colocan más circuitos dentro de un chip, un chip sencillo actualmente
contiene la unidad de control y la unidad aritmética/lógica. El tercer
componente, la memoria primaria, es operado por otros chips.
Cuando se habla de la Web, se nos viene a la mente gran cantidad de redes sociales, foros, y una gran variedad de paginas Web, aunque a primera vista navegar por estos sitios nos puede dar la impresión de que la Web es demasiado extensa, debemos considerar que esto es falso, ya que las paginas Web por la que la mayoría de los usuarios navega es simplemente la punta del iceberg, ya que por lo visto la web posee diferentes niveles de navegación, y una de ellas es la llamada deep Web o Web profunda, este nivel es prácticamente invisible para muchos usuarios de Internet, ya que su acceso suele ser algo complicado si no se cuenta con
determinados conocimientos, pero ¿que contiene la deep Web?
La deep Web en si es sitio que levanta la morbosidad y curiosidad de muchos de los usuarios que deciden adentrarse en ella, en se puede encontrar un mercado negro en el cual uno puede conseguir lo que desea, desde drogas, armas, y un sin fin de cosas que en su mayoría suelen ser ilegales, para poder navegar en la deep Web uno necesita de navegadores distintos a los que un usuario suele utilizar, uno de los navegadores mas usados para navegar a través de la deep web suele ser TOR, otro aspecto importante es que las paginas web cambian su extensión de .com a .onion.
En resumen se debe tener en cuenta que cuando uno decide entrar en la deep web, se arriesga a perder su privacidad, ya que en este nivel existe una gran cantidad de hackers capaces de invadir y compartir nuestra información privada, por lo tanto es recomendable protegerse de manera adecuada antes de ingresar en este nivel.
La World Wide Web o comúnmente conocida como la Web, se trata de un interfaz capaz de distribuir documentos de hipertexto, los cuales se encuentran conectados entre si, a los cuales se puede acceder mediante Internet, para navegar en la Web se necesita de un navegador Web, de esta forma el usuario podrá navegar a través de distintas paginas Web, en la cual podrá visualizar textos, vídeos, imágenes, etc. Esta información se encuentra conectada mediante hiperenlaces.
¿Que es Hipertexto?
Hipertexto es un conjunto de datos que se conectan con otros datos formando de esta manera redes o enlaces(links). Este tipo de enlaces permite al usuario saltar de manera secuencial de una estructura a otra permitiendo al usuario seguir con aquello que más sea de su agrado.
¿Como navegar a través de la WEB?
En la actualidad los navegadores nos han facilitado la manera de navegar a través de la Web, ya que en muchos casos es suficiente introducir una palabra que este relacionada con el tema en el cual este interesado el usuario, no obstante existen otros formas de búsqueda más específicas.
URL's
Dominio
El URL o localizador uniforme de recursos, es una dirección usada por los navegadores web para para acceder de forma más específica a una determinada pagina Web el URL se rige bajo el protocolo de transferencia de hipertexto (http).
Los dominios son exclusivos de las empresas e instituciones, es decir si la empresa o institución dispone de un servidor propio, un dominio ofrece una imagen más profesional, además de dar al usuario un acceso más cómodo y exclusivo.