martes, 29 de octubre de 2013

Redes P2P

1.

Una red P2P es una red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados.
Normalmente este tipo de redes se implementan como redes superpuestas construidas en la capa de aplicación de redes públicas como Internet.
Las redes P2P aprovechan, administran y optimizan el uso del ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación.
Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros (archivos) de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red también suele usarse en telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real.


2.

Para compartir archivos a través de una red de persona a persona, como por ejemplo juegos y música, usted descarga un software que conecta su computadora con otras computadoras que utilizan ese mismo programa, lo cual a veces facilita el acceso a millones de computadoras al mismo tiempo. Esto presenta una cantidad de riesgos, ya que por error, usted podría:
Descargar software malicioso, material pirateado o protegido por derechos de autor, o pornografía.
Permitir que personas desconocidas accedan a sus archivos personales y los intercambien con extraños.
Si está considerando usar un programa para compartir archivos, entérese de cuáles son los riesgos inherentes y siga los siguientes pasos para minimizarlos.


3.


Las redes P2P (par a par) de intercambio de archivos que permiten descargas de música, películas y videojuegos son más legales que nunca. Ésa es al menos la doctrina que se deriva de una sentencia del Juzgado Mercantil número 7 de Barcelona desestimando la demanda de la Sociedad General de Autores y Editores (SGAE) contra Jesús Guerra, al que acusaba de infringir a través de su página web Elrincondejesus la propiedad intelectual de obras musicales de su repertorio.
La sentencia no se limita a desestimar la demanda de la SGAE, a quien ha condenado a las costas, sino que entra en el fondo del asunto al afirmar que las webs de enlaces como la desarrollada por el demandado se limita a ofrecer la posibilidad de descarga a través de una red P2P, pero "no supone ni distribución, ni reproducción, ni comunicación pública de las obras sujetas a propiedad intelectual, ya que es un mero índice que facilita la búsqueda en redes de intercambio de archivos p2p mediante el sistema de menús, carteles o portadas con títulos de películas u obras musicales".
El fallo del juez Raúl N. García Orejudo es aún más rotundo e indica que "el sistema de enlaces constituye la base misma de Internet y multitud de páginas y buscadores (como Google) permiten técnicamente hacer aquello que precisamente se pretende prohibir en este procedimiento, que es enlazar a las redes p2p".
La sentencia, calificada de "histórica" por el abogado del demandado, Carlos Sánchez Almeida, rebate así los argumentos de la SGAE que acusaba a Jesús Guerra, de infringir la Ley de Propiedad Intelectual (LPI) por explotar obras sin tener los derechos para hacerlo, reproducirlas y hacer comunicación pública de ellas.
El juez advierte que, en un proceso civil, para la tutela de los derechos de autor es imposible con el actual marco legislativo identificar a los particulares o usuarios de estas redes p2p a través de las operadoras de acceso a Internet y de su dirección IP (la matrícula de cada ordenador cuando accede a la Red), "para poder luego averiguar que obra o archivos son descargados, cuál es su procedencia y cómo se realiza la descarga por cada usuario en concreto".
El fallo puede cambiar completamente la estrategia judicial contra las páginas de enlaces. Y es que se trata de la primera vez que por la vía civil- que sólo persigue una indemnización- se desestima totalmente una demanda contra la vulneración de la LPI.
Gran parte de los argumentos empleados por el juez de lo mercantil de Barcelona son los mismos que utilizó la Audiencia Provincial de Madrid para sobreseer el caso Sharemula, en la primera sentencia penal en firme que indicaba que enlazar a redes P2P no es delito. A diferencia de ese fallo, la sentencia del juzgado de Barcelona es recurrible.
El demandado Jesús Guerra es dueño de un bar en el polígono industrial de Caldas de Monbui (Barcelona) y creó la página web Elrincondejesus como hobby, para colgar enlaces de los programas p2p BitTorrent y eMule para descarga de películas y música. El juez reconoce en la sentencia que no había ningún ánimo de lucro, ni directo ni indirecto, porque el titular "no percibe cantidad alguna directa o indirectamente relacionada con el servicio que ofrece", y no tenía publicidad.
No obstante, el panorama puede cambiar radicalmente en los próximos meses. El Gobierno prepara una completa modificación de la legislación, a través de la Ley de Economía Sostenible, por el que se podrán cerrar páginas web que alojen o faciliten sin permiso enlaces de archivos sujetos a derechos como filmes, música y videojuegos. La Audiencia Nacional tendrá la última palabra para el cierre cautelar de las páginas.

4.


La descarga directa es una forma de descarga desde un servidor en el que el usuario no tiene que esperar colas, simplemente se baja un archivo y la velocidad de transferencia únicamente depende del ancho de banda de subida y del ancho de banda de bajada.

Este tipo de descarga no requiere que el usuario tenga un programa específico para realizarse, sólo se necesita un navegador (firefox, chrome, opera, etc), aunque en algunos casos es recomendable el uso de un gestor de descargas como programa de optimización y reanudación de la descarga de los archivos, sobre todo cuando tenemos que bajar un número elevado de archivos.Hoy en día existen muchas empresas que se dedican a ofrecer diferentes tipo de almacenamiento y descargas, normalmente ofrece siempre un servicio gratuito (que suele tener un máximo de usos por día) y uno de pago o premium.Entre las empresas que ofrecen el servicio de almacenamiento de archivos por citar varias se encuentran Mediafire, Rapidshare, GigaSize, Letitbit, Uploading, Depositfiles, Netload, Hotfile, File Dropper, YouSendIt, turboupload, 4shared, FileFactory, Megashare, Load.to speedfile, fupload, fufox, Badongo, FileServe, FileSonic, Wupload o Filefront.01Hasta el año pasado, después del cierre de la empresa más conocida que se dedica a esto, Megaupload, la descarga directa era el método de descarga ideal y más usado por los usuarios. Además es el método preferido por muchos usuarios denominados leechers, ya que a diferencia del P2P, este método no se basa en la filosofía de que todos los usuarios deben compartir por igual, aquí no hace falta compartir, solo bajar.

Dentro de estas empresas existen los denominados alojamientos inmediatos (one-click hosting) son servicios web que permiten a cualquier internauta subir fácilmente cualquier tipo de archivo desde su disco duro al servidor del alojamiento gratuitamente y sin registro. La mayor parte de estos servicios simplemente devuelven una URL (=link=enlace), la cual se puede difundir a otras personas, para que puedan descargar el archivo pudiendo hacerlo con cualquier navegador. Al final de la exposición os haremos una pequeña demostración subiendo un archivo a zippyshare, que es una empresa de este tipo.Antes de hablar propiamente de las descargas P2P, vamos a explicar que es una red P2P. Una red peer-to-peer, red entre iguales o red punto a punto (P2P) es una red de ordenadores en la que funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados sin necesidad de usar un servidor como intermediario como pasa en el caso de las descargas directas.

Que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que parte de los usuarios lo utilicen para descargar e intercambiar archivos de cualquier tipo (audio, vídeo, software, etc). Aunque también este tipo de red también suele usarse en telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real.Las redes P2P tienen un alcance mundial con cientos de millones de usuarios. Cuantos más nodos estén conectados a una red P2P, mejor será su funcionamiento. Esto es diferente en una arquitectura del modo servidor-cliente (Descargas Directas) con un sistema fijo de servidores, en los cuales la adición de clientes supone una transferencia de datos más lenta para todos los usuarios.Estas redes por definición son descentralizadas y todos los nodos son iguales. No existen nodos con funciones especiales, y por tanto ningún nodo es imprescindible para el funcionamiento de la red.

El primer programa que usaba una red P2P para realizar descargas fue el Hotline Connect, desarrollada en 1996 para el sistema operativo Mac OS.
Pretendía ser una plataforma de distribución de archivos destinada a empresas y universidades, pero no tardó en servir de intercambio de archivos de casi todo tipo, especialmente de contenido ilegal. Al ser una aplicación desarrollada para una plataforma minoritaria como Mac OS pronto quedó obsoleta.
Esto cambió con el nacimiento de Napster en 1999, que rápidamente se hizo muy popular para el intercambio de música, teniendo rápidamente millones de usuarios en todo el mundo. Napster utilizaba servidores centrales para almacenar la lista de equipos y los archivos que proporcionaba cada uno. Acabar con las redes centralizadas era relativamente sencillo, pues bastaba con cerrar el servidor que almacena las listas de usuarios y archivos compartidos, por lo que después de varias demandas acabó cerrando.Algunos ejemplos de redes P2P descentralizadas, que no dependen de un servidor central, y por tanto no tienen constancia de los archivos intercambiados, más conocidas actualmente son la red BitTorrent y la red eDonkey.

Existen varios programas diferentes que utilizan estas redes, como son el utorrent, ktorrent para linux y el emule, todos ellos gratuitos no como en el caso de las Descargas Directas que si queremos hacer un gran uso deberemos ser usuarios de pago. Al finalizar la exposición haremos una demostración de como bajar un archivo mediante el programa utorrent y como buscar el archivo .torrent necesario para iniciar la descarga.
El programa utorrent para descargar cualquier archivo necesariamente necesitamos tener un archivo .torrent, en el cual únicamente está la información referente a la localización de las diferentes piezas del archivo que nos queremos bajar. Es decir, no contiene el archivo en sí sino información necesaria para poder bajarlo. Es uno de los inconvenientes de esta red, ya que sin ese archivo no podremos descargar nada y a veces encontrarlos no es tarea fácil.En el emule, esto no es así, ya que posee un buscador propio donde buscamos lo que deseamos bajar.
eMule (P2P)Cuando busques archivos pequeños que, normalmente, son difíciles de encontrar.
Cuando necesites archivos relativamente antiguos.Cuando no te quieras complicar la vida buscando archivos por internet.Cuando no te importe esperar un tiempo indeterminado para disponer de la descarga.Bittorrent (P2P)Cuando quieras bajarte un archivo muy reciente.Cuando quieras bajarte un archivo relativamente grande.Si el eMule te da problemas o no estás satisfecho con su rendimiento.Descargas Directas (Servidor-Cliente)Cuando prefieras usar el máximo ancho de banda disponible.Cuando quieras bajarte cualquier archivo grande.Si no te importa pagar por el servicio.Si tienes limitación de puertos o tu ISP te los cierra y por tanto te es difícil usar P2P.Vamos a comentar como ha sido la cronología de las descargas en internet a los largo de los años.1. Hace bastantes años cuando las conexiones eran lentas, no como ahora, se descargaban canciones y juegos de servidores FTP. En aquella época, si se quería compartir algo, no quedaba más remedio que hacerlo a través del IRC (Internet Relay Chat) o encontrando FTP’s clandestinos.2. Luego aparecieron las redes P2P simplificando la tarea de compartir archivos.3. Posteriormente aparecieron eDonkey 2000 y eMule haciendo uso de estas redes P2P.4. La llegada del protocolo Bitorrent, fue un gran avance en las redes P2P, aunque supuso una dependencia enorme de páginas de alojamiento de .torrents.5. Y por último llegaron las conexiones de alta velocidad, con Rapidshare, Megaupload, y las descargas directas, y con ellas se volvió a los tiempos de los FTP clandestinos, pero que ahora habían mutado en foros y blogs. Con las descargas directas, a pesar de haber ganado en velocidad, resulta mucho más difícil encontrar lo que se busca, ya que hay cientos de páginas muchas ellas con enlaces caducados. Si el contenido es ilegal, el servidor tiene la obligación de borrarlo, por lo que muchas veces hay enlaces que ya no funcionan.Para finalizar la exposición antes de realizar una demostración de descarga de un archivo, vamos a comentar un poco la incidencia que tienen este tipo de descargas que os hemos explicado en el tráfico global de internet.trafico-europaEn esta gráfica podemos observar las aplicaciones o servicios que generan más tráfico a diario en Internet. Según un estudio publicado por Sandvine a principios de 2012 los cinco servicios que más utilizamos son los siguientes:En primer lugar tenemos el streaming que ocupa un 34.8%. En este grupo se encuentran los videos que vemos en Internet, como puede ser por ejemplo a través de youtube o series.ly. El segundo puesto lo ocupa la navegación web tradicional con un 25.9%. Esto significa las páginas por las que navegamos a diario, como pueda ser Wikipedia para informarnos sobre un tema o la prensa para informarnos sobre la actualidad. Sorprendentemente el tercer puesto lo ocupa las descargas P2P con un 20.3%.Con la aparición de las páginas Megaupload o Megavideo las descargas P2P pasaron a un segundo plano porque casi nadie lo utilizaba, pero gracias al cierre de páginas como Megaupload o Megavideo a principios de este año las descargas P2P han incrementado seriamente. A una distancia considerable podemos observar que las redes sociales ocupan un 4.3% y los markets para aplicaciones móviles con un 3.6%.La aplicación preferida para descargas archivos P2P para los europeos es Bitorrent, seguido por eDonkey. Otras aplicaciones de descarga P2P famosas son ares, emule o limewire.
Si comparamos los datos de Europa con otros continentes como por ejemplo Asia y Norteamérica podemos observar diferencias. En Norteamérica las descargas P2P apenas llegan al 12 %. El streaming y entretenimiento en vivo son las aplicaciones más utilizadas con un 58.6%.
En cambio en Asia ocurre lo contrario. Las descargas P2P ocupan un 29.3%. Solo le supera el streaming con un 47.3%. La navegación tradicional ocupa el tercer puesto con un 11.3%.
En está gráfica podemos observar que desde el cierre de Megaupload entre otras páginas el incremento de la banda ancha de las descargas P2P ha aumentado considerablemente pasando el 15% en algunos casos.
En esta última gráfica podemos ver los programas más utilizados para las descargas P2P. El programa más utilizado con diferencia es el Bitorrent seguido por otros programas como eDonkey o Pando.

lunes, 28 de octubre de 2013

WEB 2.0.

1.

Es el más reciente e innovador medio de comunicación que permite a los usuarios de Internet obtener audio programas gratuitamente tan pronto como se publican en la red. Los Podcast tienen la enorme ventaja de poder ser escuchados en cualquier momento y en cualquier lugar: en una computadora, en un reproductor Mp3 portátil, en un PDA, en un teléfono celular, en un CD, en el auto, etc. Un podcast se asemeja a una suscripción a una revista hablada o programa de radio, “sin radio”, en la que recibimos los programas a través de Internet. También una ventaja del podcast es la posibilidad de escuchar en lugares sin cobertura. La audiencia es mas especifica, aquellos que desean escuchar sobre algún tema en particular, buscarán programas que sean de ese tema que les interesa. No se tiene la condicionalidad de la radio al no estar atados a horarios y días específicos.Cuando se coloca un nuevo programa, el usuario o su computadora lo descarga, y podrá oírlo en su tiempo a voluntad. Al encender su computadora, automáticamente se sincronizas todos los nuevos podcasts de forma automática, Puede guardarlos en su iPod o su reproductor de MP3 favorito, escuchando las noticias y resúmenes del día, mientras realiza otras actividades.

 Enseñanzas de idiomas: http://eledelengua.com
Noticias: http://www.ivoox.com/podcast-noticias-sucesos_sc_f458_1.html

2.
En la ingeniería de software se denomina aplicación en línea a aquellas aplicaciones que los usuarios pueden utilizar accediendo a una web a través de Internet o de una internet mediante un navegador. En otras palabras, es una aplicación/ programa que se codifica en un lenguaje soportado por los navegadores web en la que se confía la ejecución al navegador.

Ejemplos de estas aplicaciones serían:

1. Zamzar:http://www.zamzar.com/ Nos permite convertir archivos de Video, Audio, imagenes y hasta documentos de office 8



2. Snipshot:
http://snipshot.com/  Subes una imagen y puedes editar su tamaño, recortarla, girarla y agregarle algunos efectos de manera bastante rapida...

3. Traductor online de español a SEÑAS 8:
http://hetah.net/modules/sios/?aplicacion=traductor Una novedosa, ingeniosa y útil aplicación para comunicarse facilmente con una persona con discapacidad auditiva, solo ingresas la frase o la palabra a traducir y la señorita las interpreta.

4. Photo Editor pixlr:
http://pixlr.com/editor/?loc=es Es una herramienta muy util para editar imagenes.

5. Logoease:
http://www.logoease.com/ Sirve para crear logos.

6. Voz Me:
http://vozme.com/index.php?lang=es simplemente ingresas el texto y la aplicacion genera un mp3 con la voz que elijas.

viernes, 25 de octubre de 2013

EAO

1.
La EAO es un programa educativo para hacer cursos a distancia (ESO, Bachiller, carreras, música...).


2.
Las ventajas de la EAO es que el ordenador tiene infinita paciencia: espera. Está orientada a la formación individual o a pequeños grupos, no sobre la duración de la formación. Por lo general, en una estructura de clase tradicional, o incluso en grupos más reducidos, el ritmo de trabajo y la duración de la formación los imponen los más lentos. Por el contrario, la EAO permite a cada cual la libertad de fijar su propio ritmo de aprendizaje y distribución del tiempo.

3.
https://sede.educacion.gob.es/catalogo-tramites/estudiantes/formacion/cidead-matricula.html

4.
http://www.altillo.com/universidades/universidades_espol.asp Es gratuito

5.
https://profexor.com/ Hay de fotografía, relaciones humanas... En total en esa página hay más de 3700 en castellano.

Ejercicios mapas

1.

















2.

Resumen del itinerario

Cangas – Moskva
Coste
584.84 € con un vehículo Gasolina 
Peaje 114.76 € | Carburante 466.04 € | Impuesto 4.04 €  
 
Tiempo
47h28 29h02 por vías rápidas
Distancia
4320 km 2980 km por vías rápidas
Tráfico
+55 min. a las 9:39



3.













 
Torre Eiffel: 48°51′29.95″N 2°17′40.18″E















Pirámides de Gizé:  30°01′N 31°13′E















Kilimanjaro: 03°04′00″S 37°21′00″E

  













Torre de Londres: 51°30′29″N 0°4′34″O 















47°33'16''N, 10°44'10''E


5.

 

viernes, 18 de octubre de 2013

Web 2.0.

1.
El término Web 2.0 comprende aquellos sitios web que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario1 y la colaboración en la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido generado por usuarios en una comunidad virtual, a diferencia de sitios web estáticos donde los usuarios se limitan a la observación pasiva de los contenidos que se han creado para ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2 Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar[cita requerida]. En conclusión, la Web 2.0 nos permite realizar trabajo colaborativo entre varios usuarios o colaboradores. Además, las herramientas que ofrece la web 2.0 no sólo permitirán mejorar los temas en el aula de clase, sino también pueden utilizarse para trabajo en empresa. La web 2.0 permite a estudiantes y docentes mejorar las herramientas utilizadas en el aula de clase. El trabajo colaborativo esta tomando mucha importancia en las actividades que realicemos en internet.

2.
Brecha digital hace referencia a lo que viene siendo en su totalidad socioeconómica entre aquellas comunidades que tienen accesibilidad a Internet y aquellas que no, aunque tales desigualdades también se pueden referir a todas las nuevas tecnologías de la información y la comunicación (TIC), como el computador personal, la telefonía móvil, la banda ancha y otros dispositivos. Como tal, la brecha digital se basa en diferencias previas al acceso a las tecnologías. Este término también hace referencia a las diferencias que hay entre grupos según su capacidad para utilizar las TIC de forma eficaz, debido a los distintos niveles de alfabetización, carencias, y problemas de accesibilidad a la tecnología. También se utiliza en ocasiones para señalar las diferencias entre aquellos grupos que tienen acceso a contenidos digitales de calidad y aquellos que no. El término opuesto que se emplea con más frecuencia es el de inclusión digital y el de inclusión digital genuina (Maggio, 2007). De aquí se extrae también el concepto de "infoexclusión" para designar los efectos discriminatorios de la brecha digital.

3.
Flickr.














Instagram.

martes, 15 de octubre de 2013

Terminal


Redes II

1.
IP: 69.56.152.84
Máscara de red: 255.255.255.0
MAC: 00:0e:7f:2d:cc:b1

2.
www.google.es: 178.60.195.212
www.farodevigo.es: 213.0.95.4
www.facebook.es: 31.13.83.8
www.pkparaiso.com: 91.121.105.77
www.youtube.com: 178.60.195.216

Google:













Faro de Vigo:














Facebook:















lunes, 14 de octubre de 2013

Resumen de redes informáticas

Una red informática está constituida por un conjunto de ordenadores y otros dispositivos, conectados por medios físicos o sin cable, con el objetivo de compartir unos determinados recursos. Éstos pueden ser aparatos (hardware), como impresoras, sistemas de almacenamiento, etc., o programas (software), que incluyen aplicaciones, archivos, etc.









Las redes se pueden clasificar por su extensión:

LAN (Local Area Network): Una red de área local,
red local es la interconexión de varios ordenadores y periféricos. Su extensión esta limitada físicamente a un edificio o a un entorno de hasta 200 metros.

WAN: UnaRed de Área Amplia(Wide Area Network), es un tipo de redde computadoras capaz de cubrir distancias desde unos 100 hasta unos1000 km, dando el servicio a un país o un continente.

Tambien se pueden clasificar como:

Red con servidores: los recursos compartidos se encuentras en un solo ordenador, servidor, el cual gestiona tanto el uso de recursos como los permisos.

Redes igualitarias:todos los ordenadores que las integran pueden compartir y utilizar dichos recursos)

Los medios de conexión de los elementos de una red son:













Las estructuras LAN más usadas son:

La red estrella: las estaciones están conectadas directamente aun punto central y todas las comunicaciones se han de hacer necesariamente a través de este.
La red en árbol: Tiene un nodo de enlace troncal,generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos.


La tarjeta de red: también denominada NIC (network interface card), es la interfaz que permite conectar nuestro equipo a la red. Normalmente se instala en las ranuras de expansión de nuestro equipo, o a través del puerto USB (en algunas tarjetas sin cable). Cada tarjeta tiene un identificadorhexadecimal único de 6 bytes,denominado MAC (media acces control). Los tres primeros bytes,denominados OUI, son otorgados porel IEEE , y los otros 3 bytes,denominados NIC, son responsabilidad del fabricante, de maneraque no puede haber dos tarjetas con el mismo identificador MAC.


Dispositivos electrónicos de interconexión

Centralizan todo el cableado de una red, en estrella o en árbol. De
cada equipo sale un cable que se conecta a uno de ellos. Por tanto,
tienen que tener, como mínimo, tantos puntos de conexión o puertos
como equipos queramos conectar a nuestra red. Hay dos tipos de
dispositivos, denominados:

Concentrador

Conmutador

Concentrador o HUB
Recibe un paquete de datos a través de un puerto y lo
transmite al resto. Esto provoca que la información no la
reciba sólo el equipo al cual va dirigida sino también los
demás, lo que puede implicar un problema de saturación
de la red cuando el número de paquetes de datos es
elevado.



Conmutador, SWITCH

Almacena las direcciones MAC de todos los equipos que están
conectados a cada uno de sus puertos. Cuando recibe un paquete a
través de un puerto, revisa la dirección MAC a la que va dirigido y
reenvía el paquete por el puerto que corresponde a esa dirección,
dejando los demás libres de tránsito. Esta gestión más avanzada de
la red permite mayor tránsito de datos sin saturarla.
 
 
La diferencia entre un hub y un switch es que el hub puede enviar un paquete a todos los ordenadores, y un switch sólo puede envíar un tipo de paquete a un tipo de ordenador.
 
 
El enrutador

También denominado router, es un dispositivo destinado a
interconectar diferentes redes entre sí. Por ejemplo, una LAN con
una WAN o con Internet.
Si por ejemplo utilizamos un enrutador para conectarnos a Internet
a través de la tecnología ADSL, aparte de conectar dos redes, el router también tendrá que traducir los
paquetes de información de nuestra red al protocolo de
comunicaciones que utiliza la tecnologia ADSL.


El cable de pares trenzados
Es el cable más utilizado actualmente para redes locales. Está formado
por cuatro pares de hilos. Cada par está trenzado para evitar
interferencias radioeléctricas. La cantidad de veces que gira sobre sí
mismo al trenzarse se denomina categoría y determina sus
prestaciones.
Los problemas que presenta son la atenuación, que es la pérdida de
señal producida en su propagación a través del cable, y las
perturbaciones electromagnéticas producidas por los aparatos
eléctricos que afectan a las señales transmitidas.
En los extremos del cable es necesario un conector, RJ-45, capaz de
conectar el cableado con los equipos.
La fibra óptica
Está formada por filamentos de vidrio
transparentes, tan finos como un cabellos
humano, y son capaces de transportar
los paquetes de información como
haces de luz producidos por un láser.
Se pueden transmitir simultáneamente
hasta cien haces de luz, con una
transmisión de hasta 10 Gb/s por cada
haz, con lo que se consigue una
velocidad total de 10 Tb/s.
Protocolos de red
Son las reglas y especificaciones técnicas que siguen
los dispositivos conectados. Si cada uno de ellos
“hablase” de manera distinta, la comunicación se haría
imposible.
Símil con el lenguaje humano: para que dos individuos
se puedan comunicar, tienen que hablar el mismo
idioma, o dos lenguas que ambos comprendan. Si
queremos comunicarnos con alguien que no habla
nuestra lengua podemos buscar un traductor. En las
redes, la función de traducción la realizan tanto las
tarjetas de red como los enrutadores.
El protocolo más utilizado actualmente, tanto en redes
locales como en Internet, es el TCP/IP.
El protocolo TCP/IP
Formado por dos protocolos:
TCP 
IP 
Se encargan de controlar la comunicación entre los diferentes
equipos conectados, independientemente del sistema operativo que
utilicen y del equipo de que se trate.
El IP es un protocolo de red que se encarga de la transmisión de
paquetes de información. Cada paquete se comporta como un
elemento independiente del resto y cada uno de ellos puede ir por
caminos diferentes. Este protocolo no controla la recepción ni el
orden correcto de los paquetes, pero debido a su sencillez y bajo
coste es el que más se utiliza actualmente.


miércoles, 9 de octubre de 2013

Redes

0.
La computación distribuida o informática en malla es un nuevo modelo para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en racimos incrustados en una infraestructura de telecomunicaciones distribuida.
Un ejemplo sería World Community Grid.

2.
Redes Ethernet:

Las redes Ethernet son las que se conectan mediante cable. Los elementos indispensables son los siguientes:

- Cable de red:

Es el medio de conexión entre los distintos elementos de la red. Lo podemos comprar ya hecho o bien hacerlo nosotros.



Si lo hacemos nosotros, dependiendo de la distancia, debemos mirar bien qué tipo de cable usamos. Básicamente hay dos tipos: UTP y STP.



- Cable UTP:
Es el que vemos en la imagen superior izquierda. Se trata de un cable algo más fino, más manejable, pero también menos seguro y propenso a interferencias. No hay problema en utilizarlo en distancias cortas (hasta 25 metros), pero en distancias más largas es más recomendable el tipo STP.

- Cable STP:
También llamado cable de red blindado, es el que se muestra en la imagen superior derecha. El blindaje ofrece, además de una mayor resistencia a la torsión, una resistencia a las interferencias que el cable UTP no tiene.
En ambos caso se trata de una manguera con 8 cables diferenciados por colores (4 colores y su correspondiente combinación con blanco). Dentro de la manguera se trenzan el de color sólido con su correspondiente color/blanco. El nivel de trenzado difiere según el color.

Estos cables se agrupan también por categorías (cat). Las categorías utilizadas son las siguientes:

- Cat 5e: Usado en redes fast ethernet (100 Mbit/s) y gigabit ethernet (1000 Mbit/s). Diseñado para transmisión a frecuencias de hasta 100 MHz.

- Cat 6: Usado en redes gigabit ethernet (1000 Mbit/s). Diseñado para transmisión a frecuencias de hasta 250 MHz.

- Cat 6a: Pensado para ser usado en redes 10 gigabit ethernet (10000 Mbit/s). Diseñado para transmisión a frecuencias de hasta 500 MHz.

En cualquier caso, la longitud máxima no debe exceder de la 100 metros (con cable STP).

- Terminales RJ-45:
Para conectar estos cables necesitamos unas clavijas o terminales. El tipo utilizado es el RJ-45, algo mayor que el telefónico (RJ-11) y con 8 contactos.



Los hay de dos tipos, normales (imagen de la izquierda), utilizados con cales UTP y cat. 5e y blindados (imagen de la derecha), utilizados sobre todo con cables de cat. 6, aunque también se utilizan con cables STP.

Para estos terminales existen unos protectores (imagen inferior) en diferentes colores, para hacer más fácil la identificación de los diferentes cables de red.


 
En cuanto a los cables de red normales y cruzados, el cruzado se utiliza sobre todo para unir dos ordenadores (aunque tanto los routers como los switch actuales los suelen soportar) y los normales se utilizan para redes a través de routers u switch.

- Switch:



Básicamente un switch es un componente de la red que permite conectar más de dos elementos.

El switch no tiene configuración (salvo los switch configurables, que sólo se suelen utilizar en grandes redes). Normalmente reconoce el ordenador que se le conecta mediante su MAC y/o su IP y redirige el tráfico de datos hacia el ordenador de destino. Los hay desde los más básicos de 5 puertos hasta 64 puertos. Se pueden conectar varios switch dentro de una red. Para ello suelen traer un puerto específico.

Pero evidentemente necesitamos algo donde conectar nuestros cables de red, y ese algo son las tarjetas Ethernet.



En la actualidad todas las placas base traen al menos una tarjeta Ethernet (imagen superior), pero en caso de no traerla (porque sea un equipo algo más antiguo o porque se nos haya estropeado), podemos instalar una tarjeta PCI Ethernet como la que se muestra en la imagen inferior.



Bien, con estos elementos ya podemos crear una red Ethernet.

Red WiFi:

Una red WiFi es una red Wireless (sin cable), que trabaja bajo los protocolos WiFi (802.11, en sus diferentes versiones)

Aquí ya se complica algo (aunque no mucho) el tema. Vamos a ver los elementos que necesitamos.

En la actualidad la gran mayoría de los ordenadores portátiles que se venden llevan incluida una tarjeta de conexión Wifi, tarjeta que también incluyen muchas placas base de gama alta, pero en aquellos ordenadores que no incluyen este tipo de tarjetas necesitamos instalar una para poder establecer una conexión Wifi, y por lo tanto crear una red bajo este protocolo.

En primer lugar veamos los elementos de conexión que necesitamos en nuestro ordenador:

- Tarjeta PCI WiFi:



Hay bastante variedad de modelos, pero todos tienen en común que utilizan un slot PCI para conectarse al ordenador. Es el sistema más eficaz, pero también es el único que requiere una instalación física.

- Adaptador USB WiFi:



Si en tarjetas PCI WiFi hay una grán cantidad de modelos, en adaptadores USB WiFi hay más aun. Se emplea muchísimo por su gran comodidad (no necesita instalación física, sólo conectar a un puerto USB e instalar los drivers) y además se puede utilizar en más de un ordenador (evidentemente no a la vez).

- Adaptador PCMCIA WiFi:



Los adaptadores PCMCIA (Personal Computer Memory Card International Association) están diseñados específicamente para ordenadores portátiles (aunque hay tarjetas PCI PCMCIA).

Son más fiables y estables que los adaptadores USB, pero dado que actualmente casi todos los portátiles incluyen una tarjeta WiFi cada vez se ven menos.

Bien, si lo que pretendemos es hacer una red entre dos ordenadores, con esto ya es posible (formaremos una red AC-HOC).

Pero si queremos conectar más de dos ordenadores en red ya tenemos que utilizar otros elementos:

- Access Point:

.

Un Access Point (punto de acceso) es un elemento que permite interconectar redes Ethernet con redes Wifi.

- Router Wifi:



Este dispositivo permite una amplia configuración de la red. En su versión WiFi permite conectarse a él tanto vía Ethernet (suelen tener entre uno y cuatro puertos RJ-45) como vía WiFi.


Conexión a Internet:

Visto desde el punto de vista de una red, Internet no es más que una suma de redes a la que nosotros nos conectamos mediante un proveedor de servicios ISP. Tenemos varias formas de establecer esta conexión, pero las más utilizadas son o bien por ADSL (banda ancha de la red telefónica) o mediante cable.

En ambos casos necesitamos un módem de se encargue de modular y desmodular la señal de forma que sea comprensible a nuestro sistema.

Los módem pueden ser de varios tipos:

- Módem ADSL USB:



Este sistema ha sido el más utilizado hasta la aparición de la ADSL2+ cuando se trataba de conectar a Internet un sólo ordenador. Normalmente se conecta al ordenador mediante USB (aunque también los hay que se conectan a un puerto RJ-45).


- Cable Módem:



Prácticamente igual que el caso anterior, solo que en este caso la entrada en vez de ser mediante la red telefónica es directamente mediante un cable de transmisión de datos. Este tipo de móden suele ir conectado normalmente a un puerto RJ-45.

Es el utilizado por los proveedores ISP de cable, como es el caso de ONO en España.

- Módem - Router ADSL:

3

Se diferencia de un router en que incorpora en su interior un módem ADSL, por lo que tenemos dos elementos en uno solo.

Se distinguen sobre todo porque llevan una entrada para la línea telefónica (un conector RJ-11, dentro del recuadro rojo en la imagen superior).

- Cable - Router:



En el caso de que nuestra conexión a Internet sea mediante cable, también tenemos disponibles Cable-routers WiFi, como es el caso del que se muestra en la imagen, un THOMSON TCW710.

Bien, ya hemos visto los elementos necesarios para formar nuestra red.

Una cosa ha de quedar clara. Una vez establecida la conexión entre los equipos, la forma en que gestionamos la red es totalmente independiente del tipo de conexión que utilicemos. Da lo mismo que nuestros ordenadores se conecten vía Ethernet o vía Wifi, la configuración posterior de la red es igual en ambos casos.

En lo único que se diferencian es en las medidas de seguridad que son necesarias en una red Wifi (como encriptación de la señal mediante WEP, WPA o filtros MAC) para que personas no autorizadas puedan acceder a nuestra red.



3.
Un HUB es un dispositivo que permite centralizar el cableado de una red y poder ampliarla. Esto significa que dicho dispositivo recibe una señal y repite esta señal emitiéndola por sus diferentes puertos. Trabaja en capa 1 del modelo OSI o capa de Acceso en modelo TCP/IP. 
En la actualidad, la tarea de los concentradores la realizan, con frecuencia, los conmutadores o switchs. 

4.
El HUB centraliza el cableado de una red y la amplia, mientras que el switch
conecta múltiples redes, fusionándolas en una sola.

5.
En Japón con 61,0 Mbps.
En España solo se cuenta con 5,2 Mbps, mucho menos que Japón.
 















 

martes, 8 de octubre de 2013

ADSL en el Morrazo


Duración CDs

Los CDs pueden aguantar entre cien y doscientos años.

SSD


SSD es una memoría solida que retiene los datos sin alimentación, se componen por memorias flash compuestas NAND. Durante los años se fueron desarrollando ya que eran más asequibles. Su funcionamiento se basa en distintas cosas RAM, NAND Flash, NRAM...
También arrancan más rápido al no tener platos que necesiten alcanzar una velocidad constante, tienen gran velocidad de escritura...

viernes, 4 de octubre de 2013

Almacenamiento


1.
Disco duro:                Cientos de GB o unos cuantos TeraBytes. Hasta 3 GB por segundo.
Disquetera.                1,44MB. 400 KB/s.
CD-ROM:                 700 MB. Multiplos de 128 KB/s, un lector de x16 leerá (128x16)KB
CD-RW:                    900 MB. 
DVD-ROM:             17GB. Multiplos de 1,32MB, un lector de x16 leerá (1,32x16) 21,12MB
DVD-RW:                9GB.
Unidad de disco 
magnético-óptico:     1.32 GB
Memoria USB:         De 8MB hasta 256 GB. En la tercera generación 5Gbit/s.

2. 
2TB (TeraByte)

3.
Los sólidos tienen más velocidad de escritura y lectura que los magneticos, mucho más aguante a condiciones extremas como golpes, arrancan más rápido el S.O., consumen menos energía, producen menos calor, no producen ruido y su borrado es absoluto. Los magneticos son mas baratos y también consiguen mayor capacidad.

4.
212766

5.
Consumía mucha más energía, ocupaba mucho más espacio, no permitia nada de almacenamiento si lo comparamos con uno actual, no podían hacerse equipos móviles porque su transporte sería un gran problema.

Calidades de imágenes

Los dispositivos de salida,  como las impresoras,  especifican su resolución en dpi o ppp  y se refiere al número de puntos por pulgada. Es la cantidad de puntos (gotitas) que caben en una pulgada.  Pueden necesitarse hasta 16 gotitas para formar un pixel.
La resolución del archivo de la imagen digital se debe especificar en ppi (pixels per inch o pixeles por pulgada).  Es la cantidad de pixeles que hay en una pulgada. Un  píxel o pixel, es la menor unidad homogénea en color,  que forma parte de una imagen digital, ya sea ésta una fotografía, un fotograma de video o un gráfico.
La resolución indica la cantidad de información contenida en pixeles en una imagen. La resolución de una cámara digital está dada por la cantidad máxima de pixeles de alto por ancho que puede almacenar en una imagen. Por ejemplo una cámara que captura imágenes de 3872 x 2592 pixeles tiene una resolución de 3872 x 2592 ppi = 10 megapixeles (10.036.224). Pero esto no indica la calidad de la imagen pues una imagen puede ser muy grande y tener poca resolución (pixeles por pulgada)
¿Cómo se traducen estos valores al imprimir una imagen en papel fotográfico? La impresión en impresoras fotográficas se miden en (ppp)  ( puntos por pulgada) es una unidad de medida para resoluciones de impresión. Una pulgada mide 2,54 cm. Para conocer la resolución óptima de una imagen se necesita conocer los ppi (pixeles por pulgada) a los cuales se puede imprimir. 150 ppi es una resolución ideal para impresos gráficos, mientras que a partir de 240 ppi es buena para fotografía y 360 ppi es óptima. Para saber cuál es la resolución máxima de impresión para una fotografía hay que dividir el ancho de esa imagen (por ejemplo, 3872) por la resolución de impresión medida en ppi (360). 3872/360 = 10,75 pulgadas (27,32 cm). Esto significa que la máxima longitud de papel para una imagen digital de 3872 pixeles de largo es de 10,75 pulgadas en calidad de 360 ppi. Para el caso de una resolución de impresión de 240 ppi, 3872/240 = 16,13 pulgadas (41cm) 
Los fabricantes de impresoras promocionan resoluciones altas como 2880 dpi o 5760 dpi. Los dpi que declaran los fabricantes son diferentes y se refieren a los pequeños puntos de tinta que la impresora deposita para producir la imagen. Se necesitan varios de éstos para producir un ppi (4 ó más hasta 16). Cuando más pequeños son estos puntos, mejor será la fidelidad del color y la calidad de la impresión final. En las Impresoras de la marca Epson, el valor óptimo de la resolución es 360 dpi, pero se pueden usar los valores de 300, 240 y 180 ppi. Las impresoras Canon y HP utilizan un valor óptimo de 300 ppi, y al igual que las Epson, funcionan bastante bien con los demás valores.
Resumiendo, tenga en cuenta
Que el umbral del ojo humano es de 340 ppi.
Una cámara digital, de primera marca, saca fotos con una resolución de 300 ppi.
En una impresora láser la resolución máxima es de 150 ppi.
Una impresora offset trabaja a 150 ppi.
Una fotografía digital es muy buena a 240 ppi.
Una fotografía es óptima en 360 ppi.

Tipos de Monitores


Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM Los
MDA
conocidos popularmente por los monitores monocromáticossolo ofrecían textos, no incorporaban modos gráficos.Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creabairritación en los ojos de sus usuarios.
Características:
Sin modo gráfico.
Resolución 720_350 píxeles.
Soporte de texto monocromático.
No soporta gráfico ni colores.
La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
















Monitor CGA:
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos enColor” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando sedesarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM. A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitoresMDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fueel primero en contener sistema gráfico a color.
Características:
Resoluciones 160_200, 320×200, 640×200 píxeles.
Soporte de gráfico a color.
Diseñado principalmente para juegos de computadoras.
La tarjeta gráfica contenía 16 KB de memoria de vídeo.




















 Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para lavisualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud decolores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por unmonitor de mayores características.
Características:
Resolución de 640_350 píxeles.
Soporte para 16 colores.
La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.















Monitor VGA:
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. ElVGA incorporaba modo 256 con altas resoluciones. Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores noson compatibles a los VGA, estos incorporan señales analógicas.
Características:
Soporte de 720×400 píxeles en modo texto.
Soporte de 640×480 píxeles en modo gráfico con 16 colores.
Soporte de 320×200 píxeles en modo gráfico con 256 colores.
Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.




















Monitor SVGA:
SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.
Características:
Resolución de 800×600, 1024_768 píxeles y superiores.
Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI,GeForce, NVIDIA, entre otros.



















Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fuedesarrollado en 1987 por Karl Ferdinand Braun. Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan,estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrárepresentando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.

Ventajas:
Excelente calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.

Desventajas:
Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de radiaciones eléctricas y magnéticas.
Alto peso y tamaño.





















Pantallas LCD:
A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en ingléssignifican “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fueinventado por Jack Janning.Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades desólidos y líquidos a la vez.Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir elespacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una deestas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luzo no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que alaplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tresfiltros más para cada uno de los colores básicos rojo, verde y azul.Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillointermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.

Ventajas:
Poco peso y tamaño.
Buena calidad de colores.
No contiene parpadeo.
Poco consume de energía.
Poca generación de calor.
No genera radiaciones eléctricas y magnéticas.

Desventajas:
Alto costo.
Angulo limitado de visibilidad.
Brillo limitado.
Bajo tiempo de respuesta de píxeles.
Contiene mercurio.













Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. GeneSlottow.Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasmade color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución yángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas lucesfluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como laslámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contieneun gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos dela celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente querecubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural,emite luz visible.

Ventajas:
Excelente brillo.
Alta resolución.
Amplio ángulo de visión.
No contiene mercurio.
Tamaño de pantalla elevado.

Desventajas:
Vida útil corta.
Coste de fabricación elevado, superior a los LCD.
Consumo de electricidad elevado.
Poca pureza del color.
Consumo energético y emisión de calor elevada.