Archive for the ‘redes’ Category

Si eres legal, comparte

diciembre 19, 2008

Herramientas de Seguridad disponibles en Ubuntu

abril 24, 2008

Los repositorios de Ubuntu disponen de muchas herramientas enfocadas a la seguridad, utiles para el mantenimiento de redes, la administración y para la realización de auditorias, test, etc. Entre estas herramientas incluimos, escaners de redes, detección de ataques (ADS), detección de virus, etc.

Aquí os dejo un link, referencia a UbuntuGeek en el cual podremos ver un listado y su explicación de algunas de las herramientas (30) que podemos encontrar en los repositorios de nuestro Ubuntu.

link: http://www.ubuntugeek.com/list-of-security-tools-available-in-ubuntu.html

Montar un FTP en OpenSuSe (quick)

abril 18, 2008

Este post nos ayudará a instalar un servidor FTP pasivo en OpenSuSe.

Primero deberemos instalar el paquete necesario para nuestro servidor ftp, en nuestro caso usaremos vsftpd incluido en los repositorios. Para su instalación, abriremos un terminal y teclearemos, siempre como “root”:

$ zypper in vsftpd

(Podemos usar “Yast Software Management” para instalar dicho paquete de manera gráfica, tal como Synaptic en Ubuntu)

Una vez instalado vamos a activar el servidor FTP en el init script con tal de que el servidor FTP arranque automaticamente en el arranque de la máquina.

$ chkconfig –add vsftpd

Echo esto, vamos a proceder a arrancar el servidor FTP, para ello, como root teclearemos:

$ rcvsftpd start

Tras ello es el momento de abrir el puerto en el firewall para poder hacer uso del servidor FTP. Para ello abriremos el fichero SuSEfirewall2 con nuestro editor favorito (en el ejemplo vim):

$ sudo vim /etc/sysconfig/SuSEfirewall2

Debemos buscar la variable “FW_SERVICES_EXT_TCP” y asegurarnos que el servicio ftp aparece en la lista, quedando el fichero, por ejemplo, de la siguiente manera:

FW_SERVICES_EXT_TCP=”http https ftp”

Aplicaremos los cambios con el siguiente comando:

$ rcSuSEfirewall2 reload

Ya tenemos disponible el FTP listo para usarse.

Configuración FTP
Para configurar vsftpd editar /etc/vsftpd.conf.

Activar escritura:

write_enable=YES

Activar que los usuarios locales puedan logarse en el ftp

local_enable=YES

Por defecto, que un usuario no pueda mirar fuera de su directorio home

chroot_local_user=NO

Desactivar el logon anónimo

anonymous_enable=NO


Página del proyecto: http://vsftpd.beasts.org/
Mas detalles: http://www.brennan.id.au/14-FTP_Server.html

SCPONLY – Shell limitada para transferencia segura de ficheros

marzo 3, 2008

Scponly es una Shell alternativa para los administradores de sistemas que desean dar acceso remoto a usuarios para leer y escribir archivos locales sin proporcionar ningún tipo de privilegio de ejecución remota.

Es como decir que se trata de una envoltorio dónde se permite el testeo.

Su uso mas común, es la creación de una cuenta semi-pública al estilo cuenta anónima de ftp. Esto permite a un administrador compartir archivos de la misma forma que una configuración ftp anónima empleando la protección que ofrece ssh. Esto es especialmente útil cuando se realizán conexiones atravesando redes públicas, ya que en las conexiones ftp el formato de transferencia es texto plano.

Instalando scponly

Para ello, abriremos el terminal y teclearemos:

$ sudo apt-get install scponly

Configurando scponly

Primero de todo deberemos editar el fichero /etc/shells para incluir nuestra shell scponly. Para ello deberemos escribir lo siguiente, de nuevo, en un terminal:

$ sudo gedit /etc/shells

Deberemos situarnos en la última línea e introducir la siguiente linea:

$ /usr/bin/scponly

Terminado este punto, ahora deberemos crear un usuario para la shell de scponly. Este permitirá que el usuario pueda utilizar la cuenta SCP para la transferencia de archivos, pero no permitirá el acceso a la shell interactivo. Para ello:

$ sudo useradd -d /home/scponly/ -s /usr/bin/scponly -p [password] [nombre_usuario]

Chroot SFTP – Creando la gabía para las conexiones scponly

En este momento debemos reconfigurar scponlyc para poder activar la jaula. La jaula, nos permite, crear un entorno que simula el sistema operativo “completo” dentro de un directorio, esto hace que el usuario que se conecte parezca que este en el directorio raíz del sistema, con las aplicaciones disponibles que nosotros creamos convenientes, pero que realmente, esta dentro de un directorio /home/user/ que hayamos indicado, manteniendo de este modo, nuestros ficheros del sistema a salvo. Para ello abriremos un terminal y teclearemos:

$ sudo dpkg-reconfigure -plow scponly

Responderemos “Si/Yes“. Ahora debemos indicar que se use la jaula para el usuario scponly mediante el script setup_chroot incluido para ello. En caso de no haber creado el usuario para la conexión, el script lo creará por nosotros.

Por lo que, ahora, en un terminal, teclearemos lo siguiente:

$ cd /usr/share/doc/scponly/setup_chroot
$ sudo gunzip setup_chroot.sh.gz
$ sudo chmod +x setup_chroot.sh
$ sudo ./setup_chroot.sh

Si aceptamos las respuestas por defecto, se usará/configurará el usuario “scponly” y se creara su carpeta de inicio. Al final, deberemos especificar una contraseña para scponly.

NOTAS: scponly tiene un bug que no permite trabajar en la box. Para arreglar dicho problema deberemos crear el dispositivo /dev/null en el directorio chroot (jaula) de scponly (creado por defecto /home/scponly). La forma para realizarlo es:

$ sudo -i
$ cd /home /scponly
$ mkdir /home/scponly/dev
$ mknod -m 666 /home/scponly/dev/ null c 1 3

Terminado esto, para realizar la conexión deberemos realizar desde un terminal/consola:

$ sftp scponly@linuxtest

Sintaxis:

$ sftp [usuario]@[nombre_servidor/Ip_Servidor]

Si aparece el login, habremos terminado con éxito.

Página del proyecto: http://www.blinklist.com/open/open.php?id=202112

Crea una imágen con la topologia de tu red con Lanmap

febrero 4, 2008

Lanmap escucha todos los puertos disponibles y su tráfico a través de la interfaz de red de nuestro equipo, rastrea quien envia a quién, cuánto, cuándo, protocolos utilizados, etc

Esta información es transformada posteriormente para que nuestro ojo pueda entenderla de un solo vistazo. Para ello, lanmap crea una imagen 2D de la topologia de la red, según la información que haya podido obtener.

Instalación

Para instalar lanmap abriremos un terminal o nuestro gestor de paquetes Synaptic y según corresponda, buscaremos “lanmap” o teclearemos:

$ sudo apt-get install lanmap

Una vez terminada la instalación ya estaremos listos para la utilización de nuestro escaner.

Syntaxis.

La sintaxys de lanmap es la siguiente:

$ lanmap [-o directorio] [-e programa] [-T {png,gif,svg}] [-f filtro] [-D{#,all,raw}] [-r seconds] [-i{interface}] [-h] [-v] [-V]

Para visualizarlo mas claramente, realizaremos un ejemplo:

$ lanmap -i eth0 -r 60 -T png -o /tmp/

Eso creara la imagen lanmap.png dentro del directorio /tmp/ con una bonita imagen representando la tipologia de la red, obtenida de los 60 segundos que ha estado capturando tráfico a través de nuestra tarjeta eth0.

Opciones:

-o directory: Crea la imagen en el directorio indicado
-e program: Especificamos el programa utilizado para generar las imagenes
-T {png,gif,svg}: Indicamos el formato de la imagen.
-f filtro: Especificamos el filtro a usar para la captura de paquetes
-D {#,all,raw}: Modo debug (ver documentación)
-r tiempo: Es el tiempo que dejará entre captura y captura para realizar
-i interface: Interface de red que usaremos
-V: Información de la versiión
-vv: Verbose mode.
-h: Ayuda

Página oficial: http://parseerror.com/lanmap/

Cluster de alta disponibilidad: Heartbeat2 Xen Cluster con drbd8 y OCFS2

febrero 4, 2008

Este artículo indica como realizar el setup en Ubuntu 7.10 (= para debian) de como preparar un cluster de alta disponibilidad con dos nodos de información redundante. Necesitaremos dos servidores idénticos (en nuestro caso, hemos echo el test con dos servidores virtuales), los cuales serán instalados con Xen hipervisor, y con la misma configuración de los nodos Cluster.

La configuración y archivos de imagenes virtuales Xen se almacenan en el dispositivo drbd. Drbd8 y OCFS2 permite el montaje simultaneo de ambos nodos, que es necesario para realizar la migración de las máquinas virtuales Xen.

Instalación.

1. – OS

Primero deberemos instalar dos máquinas con Ubuntu Server 7.10 Standard.

2. – Particionamiento

En ambos servidores, debemos organizar el disco en tres particiones, usados de la siguiente manera:

/dev/sda1 como /root
/dev/sda2 como swap
/dev/sda3 como drbd8

3. – Configuración de red

Para ello configuraremos nuestra máquina como indicamos a continuación:

Nodo Hostname Dirección IP
Nodo1 Nodo1 192.168.0.128
Nodo2 Nodo2 192.168.0.129

4. – Xen System

Para información adicional vistiad: http://es.wikipedia.org/wiki/Xen

Comenzaremos con la instalación de Xen Hypervisor y arrancaremos con Xen-Kernel. Para realizar la instalación, escribiremos en el terminal lo siguiente:

$ sudo apt-get install ubuntu-xen-server

Responderemos “Yes” a la pregunta de instalar software adicional necesario y una vez terminado reiniciaremos el sistema y arrancaremos con Xen.

5. – OCFS2

Para información adicional: http://oss.oracle.com/projects/ocfs2/

OCFS2 es un Sistema de ficheros en Cluster que permite el acceso simultáneo de multiples nodos. Deberemos definir nuestro dispositivo drbd para acceder a los nodos de la red simultaneamente. Primero configuraremos OCFS2 para proporcionarle información sobre los nodos para disponer de acceso al sistema de ficheros posteriormente. Cada nodo OCFS2 dispone de un sistema de ficheros montado, regularmente escribe un fichero meta-data permitiendo a los otros nodos saber que se encuentra disponible.

Para proceder a su instalación, en la consola, escribiremos las siguientes lineas:

$ sudo apt-get install ocfs2-tools ocfs2console

Una vez terminado procederemos a su configuración.

6. – Configuración

Editaremos el fichero /etc/ocfs2/cluster.conf como indicamos a continuación

$ sudo vim /etc/ocfs2/cluster.conf

Este debe tener el siguiente aspecto:

#/etc/ocfs2/cluster.conf
 node:
 ip_port = 7777
 ip_address = 192.168.0.128
 number = 0
 name = node1
 cluster = ocfs2
 node:
 ip_port = 7777
 ip_address = 192.168.0.129
 number = 1
 name = node2
 cluster = ocfs2
 cluster:
 node_count = 2
 name = ocfs2

Para reconfigurarlo de nuevo realizaremos lo siguiente:

sudo dpkg-reconfigure o2cb
sudo /etc/init.d/o2cb restart
sudo /etc/init.d/ocfs2 restart

7. – drbd8

Para mas información consultar: http://en.wikipedia.org/wiki/Drbd

Drbd8 permite a los recursos drbd ser “maestros” en ambos nodos, lo que permite montarse en lectura-escritura. Vamos a construir un módulo drbd8 y cargarlo en el núcleo. Para ello necesitamos instalar ciertos paquetes, por lo que teclearemos lo siguiente en la consola:

$ sudo apt-get install drbd8-utils drbd8-module-source drbd8-source build-essential linux-headers-xen
$ sudo sudo m-a a-i drbd8-module-source
$ sudo update-modules
$ sudo modprobe drbd

Ello cargará el módulo drbd. Tambien sera creado el archivo de configuración por defecto situado en /etc/drbd.onf

8. – Configuración

Para ello realizaremos la edición del fichero de configuración

$ sudo vim /etc/drbd.conf

Y deberá tener un aspecto como se indica a continuación:

#/etc/drbd.conf
 global {
 usage-count yes;
 }
 common {
 syncer { rate 10M; }
 }
 resource r0 {
 protocol C;
 handlers {
 pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f";
 pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f";
 local-io-error "echo o > /proc/sysrq-trigger ; halt -f";
 outdate-peer "/usr/sbin/drbd-peer-outdater";
 }
 startup {
 }
 disk {
 on-io-error   detach;
 }
 net {
 allow-two-primaries;
 after-sb-0pri disconnect;
 after-sb-1pri disconnect;
 after-sb-2pri disconnect;
 rr-conflict disconnect;
 }
 syncer {
 rate 10M;
 al-extents 257;
 }
 on node1 {
 device     /dev/drbd0;
 disk       /dev/sda3;
 address    192.168.0.128:7788;
 flexible-meta-disk  internal;
 }
 on node2 {
 device    /dev/drbd0;
 disk      /dev/sda3;
 address   192.168.0.129:7788;
 meta-disk internal;
 } }

La opción “Allow-two-primaries” en drbd.conf es la que nos permite montar ambos nodos como maestro. Deberemos copiar el fichero /etc/drbd.conf al nodo2 y reiniciar drbd en ambos nodos. Para el reinicio realizaremos lo siguiente en ambas máquinas:

$ sudo /etc/init.d/drbd restart

Podemos chekear el estado de drbd con el siguiente comando:

$ sudo /etc/init.d/drbd status

Podemos cambiar el recurso a “maestro” mediante el siguiente comando (realizandose en ambos nodos).

$ sudo drbdadm primary r0

y tras ello podriamos chequear de nuevo el estado.Aquí veriamos los recursos en “Maestro”, esto hace que el dispositivo este ahora accesible en /dev/drbd0

9. – El sistema de ficheros.

Ahora es el momento de crear un sistema de ficheros en /dev/drbd0, para ello realizaremos lo siguiente:

$ sudo mkfs.ocfs2 /dev/drbd0

Este puede ser montado en ambos nodos simultaneamente con:

$ sudo mkdir /drbd0
$ sudo mount.ocfs2 /dev/drbd0 /drbd0

Ahora disponemos de un almacenamiento común que se sincroniza con drbd en ambos nodos.

10. – Init script

Debemos asegurarnos que al iniciar el sistema, ambos nodos deben montar el recurso maestro sobre /drbd0 antes de que se arranque Heartbeat y las máquinas Xen.

Para ello editaremos el fichero mountdrbd.sh

$ sudo vim /etc/init.d/mountdrbd.sh

el cual deberá contener las siguientes lineas:

# / Etc / init.d / mountdrbd.sh
 Drbdadm primaria R0
 Mount.ocfs2 / dev/drbd0 / mnt

ahora deberemos darle permisos de ejecución y añadiremos un enlace simbólico. Para ello:

$ sudo chmode +x /etc/init.d/mountdrbd.sh
$ sudo ln -s /etc/init.d/mountdrbd.sh /etc/rc3.d/S99mountdrbd.sh

Nota: este paso puede ser integrado también en Heartbeat añadiendo los recursos adecuados a la configuración.

11. – HeartBeat2

Para mas info, visitar: http://www.linux-ha.org/Heartbeat

Para su instalación teclearemos lo siguiente:

$ sudo apt-get install heartbeat-2 heartbeat-2-gui

Ahora editaremos el fichero de configuración

$ sudo vi /etc/ha.d/ha.cf

Dónde debemos dejarlo así:

#/etc/ha.d/ha.cf
 crm on
 bcast eth0
 node node1 node2

y reiniciaremos el servicio de la siguiente manera:

$ sudo /etc/init.d/heartbeat restart

12. – Configuración HB

La configuración e información de estado de los recursos se almacenan en formato XML dentro del fichero /usr/lib/heartbeat/crm/cib.xml. La sintaxis para su configuración esta muy bien explicada en la web por Alan Robertson disponible en: http://linux-ha.org/HeartbeatTutorials

Este puede editarse directamente o puede manipularse por modulos utilizando la herramienta “cibadmin”. Nosotros utilizaremos esta herramienta, pues facilita considerablemente el trabajo. Los componentes necesarios serán guardados en ficheros XML dentro de /root/cluster.

13. – Inicialización

Editaremos el fichero bootstrap.xml

$ sudo vi /root/cluster/bootstrap.xml

#/root/cluster/bootstrap.xml
[cluster_property_set id="bootstrap"]
 [attributes]
 [nvpair id="bootstrap01" name="transition-idle-timeout" value="60"/]
 [nvpair id="bootstrap02" name="default-resource-stickiness" value="INFINITY"/]
 [nvpair id="bootstrap03" name="default-resource-failure-stickiness" value="-500"/]
 [nvpair id="bootstrap04" name="stonith-enabled" value="true"/]
 [nvpair id="bootstrap05" name="stonith-action" value="reboot"/]
 [nvpair id="bootstrap06" name="symmetric-cluster" value="true"/]
 [nvpair id="bootstrap07" name="no-quorum-policy" value="stop"/]
 [nvpair id="bootstrap08" name="stop-orphan-resources" value="true"/]
 [nvpair id="bootstrap09" name="stop-orphan-actions" value="true"/]
 [nvpair id="bootstrap10" name="is-managed-default" value="true"/]
 [/attributes]
 [/cluster_property_set]

Cargamos este fichero ejecutando el siguiente comando:

$ sudo cibadmin -C crm_config -x /root/cluster/bootstrap.xml

Esto inicializa el cluster con los valores fijados en el fichero xml.

14 – Configuración del dispositivo STONITH

STONITH impide el “Split-brain-situation”, es decir, que corran recursos en ambos nodos de una manera inusual, al mismo tiempo. Stonith comprueba si un nodo esta muerto, que lo este, y en caso de no estarlo, lo mata.

Para mas detalles sobre STONITH visitar: http://www.linux-ha.org/STONITH

Nosotros utilizaremos stonith sobre ssh para reiniciar la máquina con defectos. Para instalar STONITH teclearemos:

$ sudo apt-get install stonith

Ahora seguiremos las indicaciones de este link para generar nuestra llave pública para la autenticación.
http://sial.org/howto/openssh/publickey-auth/

Tras ello probaremos si podemos acceder del nodo1 al nodo2 via ssh sin uso de contraseña y viceversa.

$ sudo ssh -q -x -n -l root “node2” “ls -la”

Esto debería mostrarnos por pantalla la lista de ficheros del nodo2. Ahora configuraremos el dispositivo STONITH como recurso Cluster. Será un recurso cluster especial, “clon”, que se desarollará simultaneamente en todos los nodos.

$ sudo vim /root/cluster/stonith.xml

[clone id=”stonithclone” globally_unique=”false”]
 [instance_attributes id=”stonithclone”]
 [attributes]
 [nvpair id=”stonithclone01” name=”clone_node_max” value=”1"/]
 [/attributes]
 [/instance_attributes]
 [primitive id=”stonithclone” class=”stonith” type=”external/ssh” provider=”heartbeat”]
 [operations]
 [op name=”monitor” interval=”5s” timeout=”20s” prereq=”nothing” id=”stonithclone-op01"/]
 [op name=”start” timeout=”20s” prereq=”nothing” id=”stonithclone-op02"/]
 [/operations]
 [instance_attributes id=”stonithclone”]
 [attributes]
 [nvpair id=”stonithclone01” name=”hostlist” value=”node1,node2"/]
 [/attributes]
 [/instance_attributes]
 [/primitive]
 [/clone]

Cargaremos el fichero de la siguiente manera:

$ sudo cibadmin -C -o resources -x /root/cluster/stonith.xml

15 – Xen como recurso Custer.

Ahora es el momento de añadir un máquina virtual Xen como cluster. Disponemos de una máquina Xen para la visualización llamada vm01. La configuración y los ficheros imagen de vm01 pueden ser encontrados bajo el directorio /drbd0/xen/vm01 como vm01.cfg y vm01-disk0.img respectivamente.

Para editar el fichero XML de configuración, realizaremos lo siguiente:

$ sudo vi /root/cluster/vm01.xml

Y lo dejaremos tal y como se indica a continuación:

[resources]
 [primitive id=”vm01” class=”ocf” type=”Xen” provider=”heartbeat”]
 [operations]
 [op id=”vm01-op01” name=”monitor” interval=”10s” timeout=”60s” prereq=”nothing”/]
 [op id=”vm01-op02” name=”start” timeout=”60s” start_delay=”0”/]
 [op id=”vm01-op03” name=”stop” timeout=”300s”/]
 [/operations]
 [instance_attributes id=”vm01”]
 [attributes]
 [nvpair id=”vm01-attr01” name=”xmfile” value=”/drbd0/xen/vm01/vm01.cfg”/]
 [nvpair id=”vm01-attr02” name=”target_role” value=”started”/]
 [/attributes]
 [/instance_attributes]
 [meta_attributes id=”vm01-meta01”]
 [attributes]
 [nvpair id=”vm01-meta-attr01” name=”allow_migrate” value=”true”/]
 [/attributes]
 [/meta_attributes]
 [/primitive]
 [/resources]

Para cargar este fichero realizaremos:

$ sudo cibadmin -C -o resources -x /root/cluster/vm01.xml

16 – Monitorizando

Para ello utilizaremos la herramienta “crm_mon”, con la cual podemos monitorizar los cluster, incluyendo los nodos y los recursos.

$ sudo crm_mon Refresh in 14s

Disponemos tambien de una aplicación gráfica para ello, pero debemos especificar antes un pass para “hacluster”. Para ello:

$ sudo passwd hacluster
$ sudo hb_gui &

Traducción post de AtulAthavale de UbuntuGeek

Wifi-Radar. Una sencilla herramienta para la gestión de perfiles wifi

enero 22, 2008

Wifi Radar es una utilidad realizada en Python/PyGTK2 para la administración de perfiles Wifi. WifiRadar permite escanear las redes disponibles y crear perfiles de conexión asociada a cada una de ellas además de una prioridad de conexión por perfil creado.

Para realizar la instalación del mismo, deberemos abrir un terminal y teclearemos lo siguiente:

$ sudo apt-get install wifi-radar

Una vez terminado ya dispondremos de wifi radar en:

Aplicaciones -> Internet -> Wifi-radar

Para su uso es necesario el password de root.

Etheral – El analizador de red mas popular

diciembre 11, 2007

Etheral, para mi, es quizás uno de los mejores snifer de red que existe.

Utilizado por profesionales de todo el mundo, para la realización de troubleshooting, analisis, desarollo de software y protocolos y educación, soporta la mayoria de los protocolos de red que existen actualmente además de ser un proyecto de codigo abierto bajo licencia GNU General Public Licence (GPL).

Esta herramienta, captura todo el tráfico que pasa por delante de tu tarjeta de red y lo muestra, pudiendo analizar todos los datos interceptados. Es posible realizar reports, filtrar el tráfico para que se nos muestre solo aquel que necesitamos, etc. permitiendo analizar nuestra red y detectar desde tráfico no permitido hasta problemas en las tarjetas de red.

Nota: Ethereal no es un detector de intrusos ni permite manipular los paquetes de la red.

Etheral trabaja en los siguientes medios:

802.11 – ATM – Ethernet – FDDI – Frame Realy – Loopack – Serial – Token Ring.

Los protocolos soportados por este programa los podemos encontrar en http://www.ethereal.com/docs/dfref/

Para instalar este software en Ubuntu, nada mas fácil que abrir el terminal y teclear:

$ sudo apt-get install ethereal

El proceso de instalación instalará los paquetes libadnsl, wireshark i wiresharkcommon necesario para el correcto funcionamiento de ethereal.

Para ejecutar ethereal, deberemos ejecutar:
Aplicaciones -> Internet -> wireshark (as root)

Ipcalc. Información sobre tu red

diciembre 5, 2007

Ipcalc es una herramienta que nos muestra información sobre una determinada dirección IP. Primeramente procederemos a la instalación del mismo. Para ello, abriremos un terminal y escribiremos lo siguiente:

$ sudo apt-get install ipcalc

Una vez terminado nada mas sencillo que, dentro del terminal, teclear:

$ ipcalc IP_a_Consultar

Ejemplo:

$ ipcalc 192.168.1.2

Esto nos mostrará la siguiente información:

Dirección + equivalente binario
Mascara de red + equivalente binario
Wildcard + equivalente binario

Red + equivalente binario
Host Mínimo + equivalente binario
Host Máximo + equivalente binario
Broadcast + equivalente binario
Número de Host y clase de red.

Una herramienta interesante para administradores.

Escaneando Redes Inhalámbricas con SWScanner

diciembre 4, 2007

Simple Wireless Scanner es lo que NetStumbler es en Windows para Linux. Estos muestran graficamente las redes inhalámbricas detectadas por nuestro equipo, y nos muestra gráficos con la intensidad de la señal, el tipo de encriptación, podemos seleccionar varias tarjetas, etc etc. Un software ideal para la realización de wardriving.

Se integra correctamente con terminales GPS, compatible con los reports de NetStlumber, información actualizada de los parametros de red, permite varias configuraciones, etc. Para proceder a la instalación abriremos un terminal y teclearemos lo siguiente:

$ wget http://www.swscanner.org/files/active/0/swscanner_0.2.2-2_i386.deb

Una vez descargado, realizaremos:

$ sudo dpkg -i swscanner_0.2.2-2_i386.deb

Una vez finalizado ya dispondremos de Simple Wireless instalado en nuestro Ubuntu.

* Nota: Para otras distribuciones Linux no basadas en Debian, es necesario descargarse el tar.gz de su web y seguir los pasos para su compilación. Link aquí.