Friday 2 March 2018


Espectro electromagnético en telecomunicaciones

Introducción

Después de muchos estudios principalmente relacionados con el estudio acerca del comportamiento de la luz, se abriría camino una nueva rama de la física, esta sería la encargada de estudiar el comportamiento de los electrones, protones y neutrones, hablamos de la física cuántica, esta nueva rama muy pronto llegaría a descubrir que el comportamiento de la luz se podía clasificar en un amplio espectro o abanico de frecuencias, a esto pronto se le denominaría espectro electromagnético.

Fue de este descubrimiento que se encontró una gran aplicación para el mundo de las telecomunicaciones, en la cual se empezó a aprovechar las bandas de dicho espectro para el transporte de información, este mismo descubrimiento permitió el descubrimiento de otras tecnologías como los radares.

Marco teórico

Es el rango de todas las radiaciones electromagnéticas posibles. El espectro de un objeto es la distribución característica de la radiación electromagnética de ese objeto. El espectro electromagnético se extiende desde las bajas frecuencias, hasta los rayos gamma, que cubren longitudes de onda de entre miles de kilómetros y la fracción del tamaño de un átomo. Se piensa que el límite de la longitud de onda corta está en las cercanías de la longitud PLANCK, mientras que el límite de la longitud de onda larga es el tamaño del universo mismo, aunque en principio el espectro sea infinito y continuo.
Generalmente la radiación electromagnética se clasifica por la longitud de onda:



El comportamiento de la radiación electromagnética depende de su longitud de onda. Las frecuencias más altas tienen longitudes de onda más cortas, y las frecuencias inferiores tienen longitudes de onda más largas. Su comportamiento también depende de la cantidad de energía por cuanto que transporta. Guillermo Perez. (2010)





Bibliografia
Guillermo Perez. (2010). Espectro Electromagnético. 2018, de espectrometria https://www.espectrometria.com/espectro_electromagntico

Friday 23 February 2018


Experimento de Young


Introducción

Los distintos experimentos realizados a lo largo de la historia han intentado demostrar cual fue la verdadera naturaleza de la luz, ya que a muchos científicos han intentado comprender los fenómenos que comprende la luz.

Por un lado tenemos la teoría corpuscular de Newton, esta teoría afirma que la luz está compuesta por diminutas partículas las cuales son emitidas a gran velocidad en línea recta por cuerpos luminosos. José Maria Lopez (2005)

Por otro lado tenemos la teoría ondulatoria de Huygens, al contrario que la teoría corpuscular esta afirma que la luz se propaga por ondas, sin embargo, dichas ondas se encuentran formadas por ondas diminutas denominadas fotones. Esteban Moreno (2005)

En definitiva estas teorías no presentaban ningún inconveniente, de hecho ambas teorías explicaban los fenómenos de la luz y por lo tanto no podían ser descartadas, es entonces que se decide realizar un nuevo experimento a cargo de Thomas Young.

Marco teórico

Thomas Young (1773 - 1829), fue un científico inglés, reconocido por su experimento de la doble rendija que mostraba la naturaleza ondulatoria de la luz, en principio Young ideo dicho experimento con la intención de descartar la teoría corpuscular de la luz, posteriormente, se logró comprobar que la naturaleza de la luz poseía ambas cualidades, de la cual se demostró resulto una nueva teoría denominada teoría de la dualidad onda corpúsculo.
Por otro lado este experimento demostró otro aspecto de la luz con respecto a los espectros electromagnéticos relacionados con la física cuántica, mediante la cual se podía estudiar el trayecto de los electrones, protones o neutrones, se debe tener en cuenta que para dicha época la física cuántica aún no se había desarrollado. Laura Baz (2015).

Propuesta o experimento



Conclusiones

El experimento de Young no solo demostró la teoría ondulatoria de la luz, sino que ha esto se sumó que la luz también se encontraba formada por partículas, como se vio en el video, este experimento llego a ser la base para física cuántica la cual muestra el comportamiento de las partículas electromagnéticas como los electrones, neutrones y protones.

Bibliografía

José Maria Lopez. (2005). naturaleza de la luz. 2018, de CSIC http://museovirtual.csic.es/salas/luz/luz26.htm

Esteban Moreno. (2005). La teoría ondulatoria. 2018, de VIX https://www.vix.com/es/btg/curiosidades/2010/09/04/la-teoria-ondulatoria

Laura Baz. (2015). Experimento de Young. 2018, de UCM Sitio web: https://www.ucm.es/data/cont/docs/136-2015-01-27-EXPERIMENTO%20DE%20YOUNG.pdf



Saturday 4 November 2017

Rendimiento y Costo

1.    Introducción

La elección de una determinada arquitectura dependerá, del uso que se le desee dar, en muchos casos los equipos son elegidos al azar, debido al poco conocimiento que tienen los usuarios sobre el verdadero rendimiento de una computadora. Otro factor que influye es la constante evolución de las arquitecturas, ya que si bien se ha conseguido una estandarización en los equipos haciéndolos prácticamente universales a excepción de ciertos componentes (en su mayoría relacionada con el software), esto nos lleva a evaluar por sobre el rendimiento de una computadora con respecto al ciclo de vida que pueda ofrecer, es decir evaluar el coste de un equipo, hasta que este llegue a ser considerado “obsoleto”.

Para poder evaluar el rendimiento de un equipo podemos emplear programas de benchmark, con este programa podemos comparar distintos aspectos de una computadora velocidad del procesador, velocidad de escritura/lectura del disco duro, etc. mixteco. (2009)

2.    Medidas de Rendimiento

soportepc. (2015)
Algunos de los factores a tener en cuenta:
·         Tiempo de respuesta corto para una determinada pieza de trabajo.
·         Alto throughput (tasa de procesamiento de trabajo).
·         Baja utilización de recursos computacionales.
·         Alta disponibilidad del sistema de computación o de la aplicación.
·         Rápida compresión y descompresión de datos.
·         Gran ancho de banda.
·         Tiempo corto de transmisión de datos.
Otros aspectos a tomar en cuenta con respecto al rendimiento:
Disponibilida, es la capacidad de prueba y facilidad de mantenimiento y no en la fiabilidad.
Tiempo de respuesta, es el tiempo total que se necesita para responder a una solicitud o servicio.
Velocidad de procesamiento, nos permite ejecutar una gran cantidad de programas en un determinado tiempo esta ejecución se realiza de forma paralela entre los distintos que se estén ejecutando.
Capacidad del canal, es la tasa de información limitante que se puede lograr con una probabilidad de error.
 Latencia, es un tiempo de retraso entre la causa y el efecto de algún cambio físico en el sistema siendo observado.
Ancho de banda, mide la tasas de bits transferidos por segundo, el ancho de banda se encuentra presente por sobre todo en los buses de una computadora, para obtener una mayor velocidad se emplean buses en paralelo.
Rendimiento, también conocido como throughput, es sinónimo con el consumo de ancho de banda digital.
Consumo de energía, cantidad eléctrica usada por una computadora.
Luis Rincón Corcóles. (2012).

3.    Relación entre métricas

El principal objetivo es conseguir el mayor rendimiento posible con el menor coste, el rendimiento por lo tanto permite obtener una medida cuantitativa que permite comparar unos computadores frente a otros y decidir cual nos aporta mayores ventajas.
-       Aceleración de rendimiento¸ es la relación que existe entre dos computadoras
-       Aceleración del tiempo, es el tiempo que tarda una computadora en ejecutar un programa con respecto a otro, estos valores son inversamente proporcional al rendimiento.
electropedia. (2012).

4.    Medidas de rendimiento populares

Unidades de medidas de rendimiento global
MIPS
Son los millones de instrucciones por segundo que ejecuta un procesador para un programa determinado. Una mayor cantidad de MIPS indica mayor velocidad de una computadora.
MIPS VAX
El tiempo que tarda una computadora en ejecutar un programa VAX11/780.
MEGAFLOPS nativos y relativos
Surgen ya que los MIPS no hacen distinción entre operaciones normales y operaciones en coma flotante. Nos indican millones de instrucciones en coma flotante por segundo que se realiza para un determinado programa.
electropedia. (2012).

5.    Costo

A la hora de calificar los costos se puede tener en cuenta muchos aspectos, por un lado en motherboard:


Por otro lado tenemos los procesadores:




6.    Bibliografía

mixteco. (2009). costo y rendimiento. 2017, de utm http://mixteco.utm.mx/~merg/AC/2009/2.3-rendimiento_otras.html
Luis Rincón Corcóles. (2012). Estructura y tecnología de computadoras. 2017,
soportepc. (2015). intel core i5. 2017, de soporte para pc http://www.soporteparapc.com/2015/06/intel-core-i5-2500k-3.3ghz-carasteristicas.html
electropedia. (2012). rendimiento, desempeño y metrica. 2017, de electropediadigital



Friday 15 September 2017


ARQUITECTURA DE COMPUTADORAS






MAQUINA DE TURING



BENCHMARK


BENCHMARK



Características
PC1
Características
PC2
Procesador
3.19 GHz
Procesador
2.98 GHz
RAM
4 GB
RAM
12 GB
Disco duro
500 GB
Disco duro
1 TB
S.O.
Windows 8
S.O.
Windows 10

NovaBench

Se trata de una aplicación que nos permite testear la performance de la PC o portátil que estamos usando. Este software nos permite realizar una serie de pruebas para comprobar todas las áreas críticas del hardware de nuestro equipo, por lo general este tipo de programas se emplea para ver las principales características de cualquier equipo, su principal misión es la de poner a prueba componentes como la memoria RAM, velocidad del procesador, velocidad de lectura y escritura del disco duro, tarjeta gráfica, etc.
Se puede mencionar otros programas, que pueden variar el tipo de análisis que ejecute, poniendo mayores límites a una PC.
-          3DMARK.
-          PRIME95.
-          NeoTeo.
-          Hyper PI.

Comparación de 4 equipos de laboratorio

Características
PC1
Características
PC2
Puntuación
800
Puntuación
797
Procesador
3.19 GHz
Procesador
3.19 GHz
CPU Score
514
Float ops: 98712850
Integers ops: 481965048
Hash ops: 1379417
CPU Score
513
Float ops: 98841563
Integers ops: 482026967
Hash ops: 1368857
RAM Speed
9354 MB/s
RAM Speed
9067 MB/s
GPU Score
131
Direct3D11: 7FPS
OpenCL: 269 GFLOPS
GPU Score
131
Direct3D11: 7FPS
OpenCL: 269 GFLOPS
Disk Score
28
Write: 100 MB/S
Read:  104MB/S
Disk Score
27
Write: 92 MB/S
Read:  98MB/S
S.O.
Windows 8
S.O.
Windows 8
Características
PC3
Características
PC4
Puntuación
764
Puntuación
805
Procesador
3.19 GHz
Procesador
3.19 GHz
CPU Score
500
Float ops: 95032504
Integers ops: 485918080
Hash ops: 1304998
CPU Score
520
Float ops: 98841563
Integers ops: 482026967
Hash ops: 1368857
RAM Speed
5938 MB/s
RAM Speed
9273 MB/s
GPU Score
123
Direct3D11: 6FPS
OpenCL: 267 GFLOPS
GPU Score
131
Direct3D11: 7FPS
OpenCL: 271 GFLOPS
Disk Score
26
Write: 82 MB/S
Read:  100MB/S
Disk Score
27
Write: 95 MB/S
Read:  104 MB/S
S.O.
Windows 8
S.O.
Windows 8


Conclusiones


De los resultados obtenidos se puede sacar la siguiente conclusión, por un lado se usaros equipos idénticos pero los resultados obtenidos nos muestra que dichos valores varían, esto puede darse a diversos factores como por ejemplo la arquitectura interna de cada uno de los elementos, ya que s bien los diseños son idénticos la arquitectura interna puede variar en función de la precisión que pueda tener cada uno de los elementos que componen un elemento, por ejemplo en el caso de un microprocesador este se compone de transistores los cuales pueden tener factores que varíen en milésimas el rendimiento del mismo, por otro lado lo mismo se puede decir de los discos duros en los cuales los cabezales son los encargados de determinar la velocidad de escritura y lectura, estos componentes mecánicos pueden presentar variaciones en su funcionamiento otros factores que pueden afectar al disco duro son la capacidad de almacenamiento del mismo ya que un disco de mayor capacidad tendrá mayores tiempos de lectura/escritura, para finalizar se puede emplear otros programas de los anteriores mencionados para realizar las mismas pruebas y estos pueden ser capaces de obtener resultados diferentes, en función del tipo de prueba que pueda implementar a cada equipo, por lo tanto los programas de merchmark suelen ser de gran utilidad para poner a prueba el rendimiento real de cualquier PC que se desee adquirir.

Friday 18 August 2017


Evolución de las computadoras

Primera Generación 1951-1958

Esta generación se caracteriza porque las computadoras empleaban válvulas de vacío para procesar información, para introducir datos se empleaba un tipo de programación especial basada en tarjetas perforadas.

Eckert y Mauchly contribuyeron al desarrollo de la primera generación construyendo la UNIVAC I, la IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas, sin embargo IBM se dio a conocer en el mundo de las computadoras con IBM 701 en 1953. No obstante fue IBM 650 el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM.

Características

Como se dijo anteriormente estos equipos usaban válvulas de vacío para procesar información, estos equipos ocupaban grandes espacios, además de utilizar grandes cantidades de electricidad, generaban gran cantidad de calor y eran sumamente lentas.

Usaban tarjetas perforadas para entrar datos y los programas, usaban cilindros magnéticos para almacenar información.



Segunda generación 1959-1964

El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Los programas de computadoras también mejoraron, los programas se elaboraron para tener una distribución portátil, esto permitió que el programa se pueda ejecutar en varios equipos. El escribir un programa ya no requería entender el hardware de una computadora.

Las computadoras de la segunda generación eran más pequeñas y rápidas que las de válvula, y se usaban para nuevas aplicaciones, como sistemas de control aéreo, simulaciones para uso general, se empezaron a emplear las computadoras para el almacenamiento de registros.

Algunas de las computadoras de la época fueron IBM 1401, Honeywell 800 y su serie 5000, UNIVAC M460

Caracteristicas

El uso de transistores para procesar la información, 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo de vacío, usaba pequeños anillos magnéticos para almacenar información e instrucciones.



Tercera generación 1964-1971

Esta generación se caracteriza por la implementación de circuitos integrados, en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Antes de los circuitos integrados las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, los circuitos integrados permitieron a los fabricantes de computadoras estandarizar sus modelos.

La IBM 360 y CDC 6600, fueron las primeras computadoras en implementar circuitos integrados, la CDC 6600 era capaz de ejecutar 3000000 mips.

Características

Se desarrollaron circuito integrados para procesar la información, las computadoras pueden realizar tareas de procesamiento o análisis numérico a la vez, se desarrollan las mini computadoras IBM 360 y DEC PDP-1



Cuarta generación 1971-1981

Las siguientes tecnologías son las que marcan el paso a la cuarta generación, el remplazo de las memorias con núcleos magnéticos, por los chips de silicio y la colocación de muchos más componentes en un chip.

Intel Corporation es la primera compañía en lanzar el primer microprocesador de 4 bits, que en un espacio de 4 x 5 mm contenía 2250 transistores, este primer microprocesador fue bautizado como el 4004.

Esta generación se caracterizó por los grandes avances tecnológicos en tan corto tiempo, en 1977 aparecen las primeras microcomputadoras, fabricadas por empresas como Apple Computer, Radio Shack y Commodore Busíness Machines. Por su parte IBM se integra al mercado con su Perconal Computer, y lo más importante se introduce un sistema operativo estandarizado, el MS-DOS.

Características

Se desarrolló el microprocesador, cada chip puede hacer diferentes tareas, se desarrollan microcomputadoras, se desarrollan supercomputadoras, se remplaza la memoria de anillos magnéticos por la memoria de chips de silicio.



Quinta generación 1982-presente

Se puede tomar en cuenta 2 grandes avances tecnológicos, en 1892 se crea la primera supercomputadora con capacidad de proceso paralelo, diseñada por SEYMOUY CRA, el proceso en paralelo es aquel que presenta computadoras capaces de trabajar con múltiples microprocesadores a la vez, para realizar dicho proceso se debe llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen, para realizar estos procesos se diseñaron módulos de memoria compartida capaces de asignar áreas de cache para cada procesador.

Características

Se desarrolla el microprocesador, se colocan más circuitos dentro de un chip, un chip sencillo actualmente contiene la unidad de control y la unidad aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros chips.


Monday 3 August 2015

Deep Web



¿Que es la Deep Web?


Cuando se habla de la Web, se nos viene a la mente gran cantidad de redes sociales, foros, y una gran variedad de paginas Web, aunque a primera vista navegar por estos sitios nos puede dar la impresión de que la Web es demasiado extensa, debemos considerar que esto es falso, ya que las paginas Web por la que la mayoría de los usuarios navega es simplemente la punta del iceberg, ya que por lo visto la web posee diferentes niveles de navegación, y una de ellas es la llamada deep Web o Web profunda, este nivel es prácticamente invisible para muchos usuarios de Internet, ya que su acceso suele ser algo complicado si no se cuenta con
determinados conocimientos, pero ¿que contiene la deep Web?

La deep Web en si es sitio que levanta la morbosidad y curiosidad de muchos de los usuarios que deciden adentrarse en ella, en se puede encontrar un mercado negro en el cual uno puede conseguir lo que desea, desde drogas, armas, y un sin fin de cosas que en su mayoría suelen ser ilegales, para poder navegar en la deep Web uno necesita de navegadores distintos a los que un usuario suele utilizar, uno de los navegadores mas usados para navegar a través de la deep web suele ser TOR, otro aspecto importante es que las paginas web cambian su extensión de .com a .onion.

En resumen se debe tener en cuenta que cuando uno decide entrar en la deep web, se arriesga a perder su privacidad, ya que en este nivel existe una gran cantidad de hackers capaces de invadir y compartir nuestra información privada, por lo tanto es recomendable protegerse de manera adecuada antes de ingresar en este nivel.

Sunday 2 August 2015

La WEB


¿Que es la WEB?

La World Wide Web o comúnmente conocida como la Web, se trata de un interfaz capaz de distribuir documentos de hipertexto, los cuales se encuentran conectados entre si, a los cuales se puede acceder mediante Internet, para navegar en la Web se necesita de un navegador Web, de esta forma el usuario podrá navegar a través de distintas paginas Web, en la cual podrá visualizar textos, vídeos, imágenes, etc. Esta información se encuentra conectada mediante hiperenlaces.

¿Que es Hipertexto?

Hipertexto es un conjunto de datos que se conectan con otros datos formando de esta manera redes o enlaces(links). Este tipo de enlaces permite al usuario saltar de manera secuencial de una estructura a otra permitiendo al usuario seguir con aquello que más sea de su agrado.

¿Como navegar a través de la WEB?

En la actualidad los navegadores nos han facilitado la manera de navegar a través de la Web, ya que en muchos casos es suficiente introducir una palabra que este relacionada con el tema en el cual este interesado el usuario, no obstante existen otros formas de búsqueda más específicas.
  • URL's
  • Dominio
El URL o localizador uniforme de recursos, es una dirección usada por los navegadores web para para acceder de forma más específica a una determinada pagina Web el URL se rige bajo el protocolo de transferencia de hipertexto (http).

Los dominios son exclusivos de las empresas e instituciones, es decir si la empresa o institución dispone de un servidor propio, un dominio ofrece una imagen más profesional, además de dar al usuario un acceso más cómodo y exclusivo.

Espectro electromagnético en telecomunicaciones Introducción Después de muchos estudios principalmente relacionados con el estudio...