Todos contamos con un centro de control(datacenter) en nuestras empresas donde queremos restringir las paginas xxx, juegos, phishing o/u otros, pero para eso debemos contar con una lista negra de todas esas paginas, para eso existen varios proyectos que te ayudan a realizar dicha tarea:
El que detallo a continuación es uno con los cuales vengo trabajando hace años:squidguard definimos los siguientes datos
Instalación:
Una vez terminado con el archivo de configuraciónEl que detallo a continuación es uno con los cuales vengo trabajando hace años:squidguard definimos los siguientes datos
subred | 172.16.5.192/28 |
proxy | eth0: 190.40.98.114 |
eth1: 172.16.5.206 | |
cliente | 172.16.5.204 |
Instalación:
root@localhost# apt-get install squidguard
root@localhost# mv -v /etc/squidGuard.conf /etc/squidGuard.conf.OLD
root@localhost# vim /etc/squidGuard.conf ###### agregar las siguientes lineas ############### # ruta donde se almacenara la base de datos # de las listas negras del squidguard dbhome /var/lib/squidguard/db # directorio log que te permite saber si el programa # a tenido algun inconveniente a la hora de ser levantado logdir /var/log/squid # Definir las acl, para nuestro negocio definimos # dos: gral, de acceso publico, y libre para # los gerentes, que tiene todos los accesos a excepcion # de pornografía, ver recuadro: # src indica el origen de donde se realizaran las consultas src gral { iplist acl/gral } src libre { iplist acl/libre } # acl donde se almacenara las rutas de los archivos con las # listas negras # porno, xxx, calatas, tetas, etc... dest porn { # ruta donde se almacena el archivo domains # la ruta completa sera /var/lib/squidguard/db/porn/domains domainlist porn/domains urllist porn/urls log blocked.log } # hotmail, gmail, yahoo.es dest correos { domainlist correos/domains urllist correos/urls log blocked.log } # ultrasurf, etc. dest proxy { domainlist proxy/domains urllist proxy/urls log blocked.log } # propagandas dest phishing { domainlist phishing/domains urllist phishing/urls log blocked.log } # dest es el destino a donde las consultas seran # dirigidas, dichas consultas son realizadas por los clientes # a la hora de abrir su navegador. # Definimos la acl principal que controlora los accesos desde # src-->dest. acl { gral { # permite todo a excepción de proxy porno # y phishing pass !phishing !phishing !proxy !porn all # si la pagina cumple alguna de las categorías # anteriormente bloqueadas se redirecciona a # www.google.com.pe redirect http://www.google.com.pe } libre { # permite todo a excepción de porno pass !porn all redirect www.google.com } }
habilitamos el squidGuard en el archivo squid.conf
root@localhost# vim /etc/squid.conf # Aplicacion de redireccion para filtrado redirect_program /usr/bin/squidGuard -c /etc/squid/squidGuard.conf # Numero de procesos a ejecutarse del redirector redirect_children 15descargar las paginas negras de un servidor externo y extraerlo en la ruta /var/lib/squidGuard/db/, crear el directorio acl en dicha ruta, este directorio contendra los arhivos gral y libre.
root@localhost# touch /var/lib/squidGuard/db/acl/{libre,gral}agregar las ips correspondientes de los usuarios publicos a gral y de los gerentes a libre.
cambiar los permisos de dichos archivos por el usuario,grupo que esta ejecutando squid.
root@localhost# cat /etc/squid/squid.conf | grep --color cache_efective # En mi caso me arroja # Usuario y grupo con el que se ejecuta Squid cache_effective_user proxy cache_effective_group proxy # caso contrario agregar dichas lineas al squid.conf y reiniciar el servicioDebido a que el usuario con el que trabaja el squid es proxy cambio el dueño y propietario de la carpeta /var/lib/squidGuard
root@localhost# chown proxy.proxy /var/lib/squidGuard -RAbrir dos terminales en el primer escribir:
a) tail -f /var/log/squid/squidGuard.logEn el segundo reiniciar/reload el squid, recomiendo lo ultimo
b) /etc/init.d/squid reload
En el primero te permite verificar si no existe ningún error con la base
de datos del squidguard
No hay comentarios:
Publicar un comentario