sábado, 15 de septiembre de 2012

Cómo saber si nos roban el WiFi (y cómo evitarlo)

Dicen algunos que es triste pedir, pero más lo es robar. Lo cierto es que con el WiFi a veces ocurre lo contrario. Hay quién piensa que resulta más sencillo robar un poco del WiFi al vecino que ir hasta su puerta y pedírselo. ¿Como podemos saber entonces si hay algún intruso en nuestra red? Os vamos a explicar cómo detectarlo y también cómo evitarlo en el futuro.
No sabemos quién podría colarse en nuestro WiFi. Foto cortesía de sunface13
Según una encuesta, el 99% de los usuarios de smartphone alguna vez ha buscado puntos WiFi gratuitos en la calle. Y según otro estudio, uno de cada dos británicos se conecta al WiFi de alguien sin su permiso (y uno de cada tres piensa que no hay nada de malo de ello). Con todo esto, no sería raro que alguien se haya colado en nuestra red, sobre todo si la tenemos proco protegida.
La mayoría de usuarios alguna vez ha buscado a un WiFi gratuito. Fuente: DeviceScape
La mayoría de usuarios alguna vez ha buscado a un WiFi gratuito. Fuente: DeviceScape

DESCUBRIR AL INTRUSO

Si desde hace un tiempo notamos que nuestra conexión de Internet se vuelve más lenta a ciertas horas concretas del día, es un primer indicio de que alguien puede estar utilizando nuestra conexión sin permiso. Puede que esa persona, por ejemplo, tenga el hábito de descargar cada noche un capítulo de su serie favorita con nuestro WiFi, justo cuando notamos que se ralentiza conexión. Si además vemos que la luz del router destinada al WiFi (a veces se indica como WLAN) continúa parpadeando tras apagar completamente todos los dispositivos inalámbricos de casa, podemos sospechar que algo ocurre.
Una manera sencilla y rápida para descubrir si realmente alguien se ha colado en nuestro WiFi es instalar en nuestro ordenador o teléfono inteligente un programa que nos indique los dispositivos conectados a la red de casa. Pueden encontrarse aplicaciones gratuitas para smartphone, tanto para Android (Fing, Network Discovery, Net Scan) como para teléfonos iPhone (Fing, IP Network Scanner, iNet). Y también para ordenadores de sobremesa: aplicaciones multiplataforma (Angry IP Scanner, Wireshark) o métodos específicos para Microsoft Windows (Wireless Network Watcher, Microsoft Network Monitor), Mac y Linux.
Los aplicaciones Fing (para iPhone y Android) y Wireless Network Watcher (Windows)
Los aplicaciones Fing (para iPhone y Android) y Wireless Network Watcher (Windows)
Con estos programas podremos pillar al intruso con las manos en la masa. Si contamos los dispositivos y hay más de los que en ese momento sabemos que están conectados al WiFi, es muy probable que alguien esté usando nuestra conexión sin permiso. Si desactivamos todos nuestros aparatos inalámbricos, no debería aparecer ninguno en la lista.
En la aplicación, cada dispositivo aparece identificado con una dirección IP (que normalmente le asigna el router al aparato) y una MAC (que la asigna el fabricante y difícilmente puede cambiarse). También a veces con un nombre, que probablemente nosotros hemos elegido en un proceso de instalación o registo. De esta manera podemos saber con certeza quién es quién. Luego explicaremos cómo identificar estas direcciones IP y MAC, en el caso de que no lo sepamos.

EL REGISTRO DEL ROUTER

Con estos programas sólo podremos detectar al intruso si está conectado en el mismo momento en el que miramos. En caso contrario, no aparecerá. Para saber si alguien se ha conectado antes, debemos acceder al lugar del crimen: el router. A él podremos entrar a través de una página web, escribiendo la dirección del aparato en el navegador. En alguno de los apartados de la web del router habrá un registro en el que podemos ver las conexiones que se han realizado hasta ese momento.
Para poder conectarse al router, primero hay que conocer su dirección. Debe ser algo parecido a 192.168.1.1. Podemos encontrarla en el manual o preguntar por ella a nuestro operador (en el caso de que é nos haya dado el router).
Otra manera de conocer la dirección del router es a través de un dispositivo que esté conectado a él (por WiFi o cable). En Windows hay que ir Inicio, luego Ejecutar, escribir cmd y aceptar. Luego escribimos ipconfig/all en la ventana que nos aparece y el número al lado de puerta de enlace predeterminada será muy probablemente la dirección IP del router WiFi. También podemos conocerla en Mac, Linux, iPhone y Android. En este momento seguramente también nos toparemos con la direcciones IP y MAC (también conocida ésta como dirección física, dirección de hardware o dirección Wi-Fi del dispositivo), que utilizaremos más adelante.
Una vez conocemos la dirección del router, la escribimos en la barra de direcciones del navegador. Si es correcta, aparecerá la web del router y nos pedirá un nombre de usuario y/o contraseña. Si no la hemos cambiado, nuevamente el manual o nuestro operador nos la podrán decir. También hay páginas que recopilan contraseñas. Y si no, una búsqueda en Internet con el modelo del router seguramente nos dará la respuesta.
Página de configuración de un router D-Link
Página de configuración de un router D-Link
Una vez hemos entrado en el router, estaremos en posición de recoger la prueba definitiva y expulsar al vecino de nuestro WiFi. Buceando por los diferentes apartados, encontraremos el registro del router (también llamado log) donde probablemente veremos las direcciones IP o MAC de los dispositivos que se han conectado últimamente. Seguramente también encontraremos en otro apartado la lista de dispositivos conectados en ese momento mediante DHCP (los que reciben automáticamente los parámetros de configuración). La IP de nuestros aparatos a veces cambian (si así lo tenemos configurado con DHCP, lo más habitual), por lo que será más fácil identificar un intruso por su dirección MAC, que siempre es la misma para cada aparato (aquí os explican cómo averiguarla en Android y iPhone; en Windows y Mac os debería haber aparecido antes).

PROTEGER NUESTRO WI-FI

Si alguien ha estado utilizando nuestra conexión, es porque muy probablemente no está bien asegurada. O quizás todavía nadie se ha colado, pero podría ocurrir en el futuro si no tenemos un buen nivel de seguridad. Desde la página del router podemos hacer todos los cambios necesarios para que no vuelva ocurrir. Si estamos algo perdidos, el manual del aparato o el servicio técnico del operador nos ayudarán.
Os damos a continuación algunas recomendaciones de configuración para que vuestro WiFi sea más seguro. Obviamente, cuántas más se apliquen, más segura será la red.  Pero sólo con seguir algunas de ellas ya será impenetrable para la mayoría de vecinos y curiosos.
  • Asegurarse de que tener una contraseña segura. El WiFi debe exigir una contraseña para conectarse que, a ser posible, sea larga y combine mayúsculas, minúsculas y números. Es recomendable que el cifrado sea de tipo WPA o WPA2. Las contraseñas de tipo WEP son muy fáciles de descubrir. Y cambiar la contraseña de tanto en tanto no está de más.
  • Filtrar las conexiones por direcciones MAC. Como hemos dicho, la dirección MAC es como la firma del dispositivo inalámbrico, y el router puede identificarla. Podemos configuarlo para que sólo permita que se conecten ciertos aparatos con unas MAC concretas. Aunque esta firma también puede impostarse, es un obstáculo más.
  • Asignar las direcciones IP manualmente. Por defecto, no hace falta configurar nada en nuestro dispositivo para que se conecte a un WiFI,  ya que recibe automáticamente del router todos los parámetros necesarios. Para dificultar la entrada de intrusos, podemos desactivar esta asignación automática (llamada DHCP). En ese caso, cada dispositivo que se conecte al WiFi deberá configurarse individualmente según los parámetros establecidos en el router (Windows, Mac, Android, iPhone).
  • Hacer invisible nuestro WiFi o cambiar el nombre (el SSID). Normalmente un router WiFi informa de su presencia a todo el que se acerca. Además, ciertos nombres identifican el dispositivo con el operador que lo ha suministrado, lo que facilita que pueda conocerse la contraseña por defecto. Para evitar que esto ocurra, podemos ponerle a nuestra conexión otro nombre y además que no informe de su presencia cuando alguien busque redes inalámbrica. Para conectar uno de nuestros dispositivos habrá que introducir manualmente el nombre exacto.
Al proteger nuestro WiFi no sólo evitamos que alguien utilice nuestra conexión gratuitamente sino que también impedimos que pueda acceder a nuestra información personal (archivos compartidos, webs que visitamos, etc.).  Ésta última es seguramente la razón más importante para proteger la red. Y no hay que olvidar que comprometemos información personal no sólo cuando un intruso se cuela en nuestro WiFi sino también cuando nosotros somos los que nos conectamos a un WiFi público.

Info:http://blogcmt.com/2012/09/14/como-saber-si-nos-roban-el-wifi-y-como-evitarlo/

sábado, 1 de septiembre de 2012

Etiqueta META robots y archivo robots.txt.

Mediante las diferentes etiquetas META que podemos colocar en un sitio web disponemos de una variedad amplia de metainformaciones para comunicar a cualquier sistema que lea nuestra página web.
Nota: Conviene recordar que también se puede definir el comportamiento de los robots de búsqueda con nuestro sitio, a la hora por ejemplo de permitir o no indexar las distintas páginas, mediante el archivo robots.txt.
Ahora veamos cómo se define esta etiqueta META de robots.

Como se puede ver, se define el etiqueta META y se acompaña de dos atributos esenciales:
Name: que para la etiqueta META que controla los comportamientos en motores de indexación el valor es "robots".
Content: se indica las directivas que queremos que apliquen los motores de indexación cuando visitan la página.

Valores posibles de la etiqueta META ROBOTS

En el atributo Content de la etiqueta meta debemos colocar las directrices que deseemos para buscadores, tantas como deseemos, separadas por comas. Las distintas directrices a aplicar son las siguientes: INDEX / NOINDEX
Sirve para indicar si se desea o no permitir la indexación de la página por los motores de búsqueda.
FOLLOW / NOFOLLOW
Con esta directriz se indica si se debe o no permitir a los motores de búsqueda recorrer o seguir recorriendo la web a través de los enlaces que encuentre en el cuerpo del documento.
ARCHIVE / NOARCHIVE
Esto permite decir si deseamos o no que el motor de búsqueda archive el contenido del sitio web en su caché interna. Como habremos podido ver, buscadores como Google tienen una caché y podemos ver las páginas web tal como las tiene cacheadas el buscador. Para ello, en los resultados de las búsquedas aparece un enlace que pone caché. Si decimos que no archive la página, no debería mostrar ese enlace de caché. Esto en realidad, según Google, no evita que se guarde en caché la página, sino que no permite verla a los usuarios del buscador y por lo tanto no muestra el enlace.
SNIPPET / NOSNIPPET
Esta directriz en principio no resulta muy útil, al menos a primera vista. Sirve para que el motor de búsqueda no muestre ninguna descripción de un sitio, sólo su título. Si utilizas NOSNIPPET automáticamente defines un NOARCHIVE, por lo que la página tampoco se mostrará en caché.
ODP / NOODP
Sirve para decirle al buscador que debe, o no, mostrar el título y descripción de la página iguales a los que se encuentra en el Open Directory Project. En algunos casos, algunos buscadores muestran como título y descripción de una web los que se han publicado en el ODP (ENLACE A http://www.dmoz.org/).
YDIR / NOYDIR
Es básicamente lo mismo que ODP / NOODP, con la diferencia que es para que no se pueda, o si, mostrar la descripción y título que aparece en el directorio de Yahoo.
Cuando no existe esta etiqueta los buscadores interpretan las condiciones más favorables para ellos, es decir, que pueden hacer todo lo que suelen hacer con otras páginas a la nuestra, como indexarla, seguir sus enlaces, archivarla, etc.

Ejemplos de etiquetas META ROBOTS

A la hora de utilizar la META ROBOTS básicamente lo que podemos hacer es restringir las posibilidades de los motores de búsqueda, puesto que las posibilidades por defecto son las menos restrictivas. Esto quiere decir que una etiqueta como la siguiente es irrelevante, porque el buscador siempre va a indexar la página y seguir sus enlaces de manera predeterminada:

Podemos definir entonces casos más restrictivos como estos:

Para indicar que se desea que se indexe la página, pero no se sigan los enlaces. Dada que la opción INDEX es la que se sobreentiende por defecto, esta etiqueta tendría el mismo valor que la siguiente:

Para indicar que no queremos que se sigan los enlaces de la página.

Para indicar que no queremos que se indexe la página ni se sigan los enlaces que pueda contener.

Lo único que indicamos es que no se muestre el enlace para ver la página en la caché del buscador.

Con esta restrictiva etiqueta forzamos para que no se indexe la página, no se sigan los enlaces, no se muestre el link de caché, no se muestre el título y descipción del Open Directory Project y sólo se muestre el título de la página en los resultados de las búsquedas.

Archivo robots.txt

Un robot es un programa más o menos complicado que se dedica a rastrear nuestras páginas web y guardar su contenido en una base de datos y seguir los enlaces que tengamos a otras páginas web. Esto nos beneficia pero también nos puede perjudicar, ya que a veces no nos conviene que se indexen ciertas páginas de nuestras webs.

Actualmente los robots actúan de tal forma que lo primero que hacen es buscar en la raíz de nuestra página si tenemos un archivo llamado robots.txt, si lo encuentra lo lee y sigue las directrices que en él se encuentran, si no lo encuentra empieza a rastrear toda la web.

Por este tema es importante crear bien este archivo y pensar que páginas queremos que sean rastreadas y cuáles no, ya que las que no sean rastreadas no serán indexadas en los navegadores.

Crear el archivo robots.txt
Este archivo es muy fácil de construir tan solo tienes que saber ciertas pautas y podrás hacerlo sin problema.

robots.txt puede construirse para que se aplique solo a los robots de determinados buscadores.

Pasamos a escribir un ejemplo para ir explicando las posibilidades:

User-agent: * # aplicable a todos los robots
Disallow: / # impide la indexacion de todas las paginas

En este ejemplo los robots no podrían indexar ninguna pagina del dominio.
User-agent lo que nos dice es a que robots se les aplica las características que le siguen debajo. Si usamos el * estamos diciendo que esas reglas son aplicables para todos los robots. Pero también podemos hacerlo para determinados robots, como ves en el siguiente ejemplo:

User-agent: lycra
User-agent: BadBot
Disallow: /

En este ejemplo los robots lucra y BadBot tendría prohibida la indexación de cualquier pagina del dominio.

El disallow nos dice los archivos o carpetas que queremos que no sean indexadas. De esta forma podríamos hacer un archivo como este:

User-agent: *
Disallow: /tmp/prueba.html
Disallow: /logs

Este ejemplo lo que haría sería prohibir la indexación de la carpeta logs y el archive prueba.html a todos los robots.

Con esto ya podríamos realizar un archivo robots.txt perfectamente válido, pero también existen términos para determinar en qué horas queremos que esos robots rastreen nuestras páginas. La forma de construirlo es la siguiente:

Visit-time: 0300-0400 #esta opción obligaría a rastrear las paginas solo de 3 am a 4 am

Recuerda que las horas siempre se colocan en Greenwitch

Por otro lado podemos decirle que indexe una página o varias cada equis tiempo, para ello se utiliza la siguiente sintaxis:

Request-rate: 1/30

Siendo el 1 el número de documentos a rastrear y el 30 el tiempo que transcurre entre un rastreo y el siguiente.

Es importante saber que no puedes dejar líneas en blanco ya que no funcionaria, el robots dejaría de leer en el momento que encuentra la línea en blanco.

Otro aspecto que no he comentado antes pero que habréis notado es que los comentarios ser realizan utilizando la #.

Un ejemplo completo seria el siguiente:

User-agent: *
Disallow: /tmp/prueba.html
Disallow: /logs
Visit-time: 0300-0400

Esto permitirá a todos los robots rastrear todas las paginas menos prueba.html y la carpeta logs, además solo podrían indexar de 3 de la mañana a 4.
 
 Info:http://www.desarrolloweb.com/articulos/robots-txt.html
 Info:http://www.desarrolloweb.com/articulos/etiqueta-meta-robots.html