Blog de ABAST sobre Gestión de TI, Seguridad TI y otros aspectos de la calidad de las TIC
lunes, 19 de diciembre de 2011
Gestión desde la nube
viernes, 16 de diciembre de 2011
Service Desk: el Factor Humano
El volumen de llamadas entrantes era muy elevado y los SLA asociados a la gestión telefónica de la llamada, que por aquel entonces era la entrada principal de incidencias, peticiones, quejas, y preguntas varias, era bastante estricto en cuanto a los tiempos de respuesta y abandono.
El perfil de actividad de los usuarios y clientes que accedían al servicio de soporte era absolutamente típico, por este motivo en cuanto se abrían las líneas telefónicas, la ocupación de los agentes era inmediata y el colapso se producía acto seguido. Las llamadas entrantes, que no dejaban de fluir, entraban en el sistema, escuchaban las opciones y se distribuían en función de la lógica de saltos y grupos diseñada para el servicio en cuestión.
En pocos minutos, las colas empezaban a acumularse y el supervisor cual “cómitre” iniciaba la maniobra: ¡remo de combate!
En los supuestos 3 minutos de media que debía durar cada llamada para poder asimilar las colas en espera, se debía escuchar, entender, registrar, resolver y cerrar o escalar. El proceso de registro debía ser por otro lado completo y adecuado en cuanto a su descripción, categorización y priorización. Sólo puedo decir, que lo intentábamos.
Ahora los tiempos han cambiado y el usuario dispone de múltiples fórmulas para contactar con su Service Desk y existen muchos automatismos e integraciones que facilitan el proceso de registro. Ahora bien, dado su coste, no podemos afirmar aquí que la implantación de dichos automatismos esté muy extendida, por lo que las dificultades en el proceso de registro siguen estando patentes. El operador gestiona su tiempo para “procesar la información” según su criterio y según la presión que asimile.
¿De qué depende entonces? ¿Es un problema de falta de conocimientos? ¿De procedimientos? ¿De metodología de trabajo? En parte, y sólo en parte, ya que aunque existan, no se contempla el factor humano, y éste es, de momento, un elemento muy importante, tanto a la hora de proporcionar el soporte, como a la hora de efectuar el proceso de registro y aprender de él.
A mi entender, el problema guarda relación directa con los siguientes aspectos:
- El esfuerzo en cumplimentar los datos de registro correctamente todavía no se percibe como proporcional al valor intrínseco de la información que aportan. Por tanto, sigue faltando equilibrio entre el nivel de “detalle” requerido, su “valor” y el tiempo invertido en su tratamiento.
- Los procesos se ejecutan de forma intuitiva, y su recurrencia, más o menos continuada, establece las bases de trabajo.
“La capacidad de evaluar – el nivel más alto de la taxonomía cognitiva – se basa en el supuesto de que el estudiante, para ser capaz de evaluar, tiene que disponer de la información necesaria, comprender esa información, ser capaz de aplicarla, de analizarla, de sintetizarla y, finalmente, de evaluarla” (E.W. Eisner a propósito de B. Bloom. Perspectivas: revista trimestral de educación comparada (París. UNESCO: Oficina Internacional de Educación), vol. XXX, n° 3, septiembre 2000, págs. 423-432).
Sin olvidar aspectos tan esenciales como disponer de un dimensionamiento correcto y de las herramientas necesarias, podemos afirmar que se requiere un cambio de enfoque, pero incluso antes de que le pongamos nombre (ITIL, ISO/IEC 20000, etc.) esta diversidad sólo podrá gestionarse con enfoques que aporten sistemática, es decir que:
viernes, 2 de diciembre de 2011
X Jornada Internacional de Seguridad - ISMS
El martes 29 de Noviembre asistimos a la X Jornada Internacional de Seguridad de la Información organizada por el ISMS Forum Spain centrada en la CiberDefensa y CiberSeguridad.
El evento se celebró en la Ciudad de las Artes y las Ciencias de Valencia, un escenario que no conocíamos y que nos pareció idóneo para la jornada.
El congreso, que comenzó a las 9 y terminó pasadas las 18, contó con más de 20 ponentes de ámbitos distintos, desde expertos en seguridad, pasando por representantes de proveedores de seguridad hasta CISOs de importantes organizaciones.
Desde mi punto de vista (soy Consultor de Seguridad), las mejores ponencias fueron las posteriores al Coffee-break, concretamente :
- “La estrategia Española en materia de CiberSeguridad” de Javier Candau (Subdirector General Adjunto del Centro Criptológico Nacional, CCN)
- “Why security breaches are occurring? The Data Breach Investigations Report 2011” de Jelle Niemantsverdriet (Principal Consultant Forensics and Investigative Response), Verizon Business Security)
Javier Candau (cuyo apellido me pareció muy indicado para su profesión), comentó las distintas estrategias tomadas por otros países en cuanto a CiberSeguridad. Explicó las distintas amenazas a las que un país puede estar expuesto y de la importancia de proteger las infraestructuras críticas. Mencionó varios conceptos como el cibercrimen, el ciberespionaje, el hacktivismo o el ciberterrorismo. Dentro de la estrategia española, comentó la relevancia del Esquema Nacional de Seguridad (ENS).
Jelle Niemantsverdriet (@jelle_n) en una ponencia muy visual y llena de datos interesantes (se puede consultar aquí) remarcó la importancia de revisar los LOGS regularmente para conocer las intrusiones que las organizaciones sufren. Jelle en un baile de estadísticas de distintas fuentes, propone aprender de los errores de los demás. Comenta también que tal como ocurre en los accidentes de avión, las intrusiones no están normalmente producidas por un GRAN error, sino por la suma de pequeños errores que llevan a la catástrofe. El ponente mostró un gráfico con el descenso de brechas de información registradas en los dos últimos años. Su explicación a éste hecho es la mejora de los sistemas de seguridad, el incremento de la concienciación en seguridad de las organizaciones, el endurecimiento de la legislación y por tanto, que muchos crackers han sido detenidos con condenas severas. Otra de sus explicaciones al descenso es que las brechas de seguridad no se han producido en las grandes empresas, ya que estas han tomado mayor conciencia de la seguridad, sino que se dan en empresas mucho más pequeñas y que no detectan los ataques. En sus palabras, los crackers “ya no cazan elefantes, ahora cazan conejos”.
Después de un abundante y delicioso almuerzo a base de pequeñas tapas, la tarde se dividió en:
- Mesa redonda: “La entrada en vigor de la normativa española en materia de infraestructuras críticas”
- Mesa redonda: "El nuevo panorama de ciberamenazas. Casos de éxito y buenas prácticas."
- “El headhunting de profesionales y directivos de la Seguridad ¿Qué está demandando el mercado?" de Miguel Portillo (Associate Director, Michael Page Executive Search)
Las dos mesas redondas fueron muy interesantes, aunque por mi vocación, encontré más interesante la segunda (sobre ciberamenazas y casos prácticos), que la primera (centrada en normativa e infraestructuras críticas).
Por último, la ponencia de Miguel Portillo de Michael Page fue muy interesante al tratar de un tema totalmente distinto a todos los tratados durante la jornada. Se hizo una muy buena contextualización del mercado laboral europeo y español. Se centró en la figura del CISO, tanto en sus características personales como lo que demanda el mercado.
En conclusión, la valoración del evento fue muy positiva y creo que el resto de asistentes coincidirán en ello, tanto por la organización como por el contenido de las charlas. Espero poder asistir al siguiente evento ya que fue una magnífica experiencia.
viernes, 7 de octubre de 2011
El error más común a la hora de Analizar y Gestionar los Riesgos Tecnológicos
Existen multitud de metodologías y de enfoques, pero a menudo, y sobre todo, cuando se decide abordar por primera vez un análisis de este tipo, se cometen errores de base que pueden comprometer el éxito del proyecto.
El análisis debe surgir con un doble objetivo, por un lado estudiar los riesgos asociados a los sistemas de información y su entorno, y por otro, aplicar las medidas necesarias para conocer, prevenir, impedir, reducir o controlar los riesgos estudiados hasta niveles aceptables por la organización.
Sin embargo, a pesar de que los objetivos suelen estar claros, no siempre se consiguen, ya que las organizaciones han elevado el grado de exigencia, como consecuencia tanto del aumento acelerado del volumen y dependencia de las tecnologías de la información, como de los nuevos escenarios (nuevas amenazas, tecnologías novedosas, vulnerabilidades escondidas, nuevas salvaguardas…) a los que nos enfrentamos.
Por tanto para conseguir gestionar los riesgos con éxito en este nuevo entorno más complejo, es necesario tener un equipo experto que plantee el análisis y gestión de riesgos como un conjunto de iteraciones, en las cuales, en cada una de ellas, se analice el escenario actual y se amplíe el nivel de detalle en función de las necesidades del negocio.
En ocasiones las organizaciones incurren en el error de plantear un análisis estático con un principio y un fin, al que no se le da continuidad en el futuro y donde se intenta analizar de golpe el todo. La clave, desde nuestro punto de vista, a la hora de abordar un proyecto de este tipo, es plantear el análisis en fases, en modo dinámico de gestión continua de tratamiento de riesgos, en la cual en las diferentes iteraciones del estudio se vayan incorporando nuevos servicios, aumentando el catálogo de amenazas, contando con nuevas salvaguardas. La gestión de riesgos consistirá en ir viendo cómo evoluciona el riesgo en cada iteración, implantando controles, actualizando el escenario tecnológico, garantizando que se toman decisiones para mitigar, transferir o asumir el riesgo hasta los niveles que la Alta Dirección considera como “aceptables”, creando a su vez valor al negocio mediante:
- Integración con los procesos organizacionales
- Forma parte de la toma de decisiones
- Atiende explícitamente los aspectos de incertidumbre
- Es sistemática, estructurada y oportuna
- Está alineada con el contexto externo e interno de la organización
- Es dinámica, iterativa y responde a los cambios
- Facilita la mejora continua en las organizaciones
viernes, 30 de septiembre de 2011
Los 3 errores más comunes a la hora de contratar un servicio externo
Asumir completamente los requerimientos y costes de la prestación de un servicio o bien, contratarlo a un proveedor externo, suele ser una de las decisiones más controvertidas que una organización debe tomar. Pero ¿Qué aspectos inciden con mayor fuerza en la decisión final?, ¿Son estos aspectos realmente, significativos o a menudo se valoran desde una perspectiva errónea?
Las respuestas a estas preguntas están en el día a día, o sino ¿Quién no conoce casos de cancelaciones contractuales antes de que finalice el período estipulado?, ¿Penalizaciones por incumplimiento de contrato?, ¿Hastío de las relaciones cliente-proveedor?, por poner sólo unos ejemplos.
El punto de vista de valoración y las expectativas previas juegan, por tanto, un papel muy importante. Así pues, podemos considerar que en función del enfoque y la expectativa que se asuma, se pueden cometer, frecuentemente, los siguientes 3 errores:
Presupuesto vs Oferta
El presupuesto de gasto (o la necesidad de reducir costes), suele ser un elemento decisorio de peso a la hora de valorar distintas ofertas de proveedores, especialmente, en tiempos oscuros económicamente hablando, como los actuales. Se cumple la máxima: “para que voy a pagar más, si puedo obtener lo mismo por menos”. Si bien es normal y correcto comparar ofertas y prestaciones, el error está en considerar propuestas “supuestamente económicas” para prestaciones “supuestamente de calidad” que acaban siendo superficiales, no disponen de la flexibilidad necesaria para adaptarse a requerimientos cambiantes o a la propia complejidad de la organización.
Contrato legal vs SLA
Muchos contratos de servicios se resuelven a través de una correcta y concreta documentación legal que establece los detalles legales de la prestación que se contrata y las obligaciones de ambas partes firmantes, pero no siempre se acompaña o amplía con el establecimiento de un acuerdo de nivel de servicio (SLA) donde se detallen los requerimientos de servicio y se establezcan tanto el nivel de servicio requerido, como el umbral considerado por la organización para identificar un nivel inaceptable, el marco de trabajo, o el modelo de relación que deberá enmarcar la interacción cliente-proveedor.
En otros casos, sí existen estos acuerdos SLA, pero no son suficientemente claros o incluyen objetivos demasiado ambiciosos que alimentan la expectativa del cliente pero son claramente inasequibles por parte del proveedor, que en ocasiones, acepta “gratamente” el pago de las penalizaciones acordadas, antes que invertir en la mejora de los servicios que presta.
Se cumple la máxima: “el contrato legal me asegura el cumplimiento de todos mis deseos”. El error está en considerar que el contrato siempre cubre mis expectativas de servicio, incluso cuando éstas ni siquiera hayan sido formuladas e incluidas en él.
Seguimiento vs “laisser faire”
Si focalizarse en el presupuesto y no concretar explícitamente los requerimientos y expectativas de servicio son errores comunes, también lo es considerar que por el hecho de contratar un proveedor externo para que proporcione el servicio que necesitamos, no es necesario que “invirtamos tiempo y esfuerzo” en su seguimiento. Se cumple la máxima: “ya saben lo que tienen que hacer. Los hemos contratado para poder dedicarnos a otras tareas”.
Este aspecto está vinculado al punto anterior y es normal que no se tenga en cuenta, si previamente, no se ha tenido en cuenta el establecimiento de un acuerdo de nivel de servicio realista que establezca el marco de control del seguimiento (indicadores de rendimiento, métricas, etc.). El error está en no evaluar periódicamente la prestación del servicio para poder confirmar que sigue siendo adecuada a los requerimientos que nos han llevado a contratarlo.
En conclusión, el error más común es el de no conocer bien la expectativa de servicio, es decir, saber exactamente, qué es lo que se necesita, qué es lo que el proveedor ofrece, qué es lo que se contrata y cuál es el coste real de la prestación, y la estrategia que finalmente, se determine no pueden dejarse a merced de una cuestión de enfoque.
“El pesimista se queja del viento. El optimista espera que cambie. El realista ajusta las velas” (Guillen G. Ward)
viernes, 16 de septiembre de 2011
Gestión de la Demanda y Proyectos
- Permite que los departamentos de TI puedan enfocar sus recursos y su presupuesto a las prioridades del negocio.
- Consolida y prioriza todos los proyectos con mayor y mejor visibilidad y control, centrándose en aquellos de mayor prioridad cumpliendo los compromisos de nivel de servicio.
- Automatiza este ciclo de vida de la demanda parar alinearse con los procesos de negocio y reducir el tiempo de resolución de las solicitudes asociadas a la demanda de servicios.
- Subsanar la degradación del servicio por aumentos no previstos de la demanda.
- Medir el progreso del proyecto y los tiempos del mismo: (Integración con diagramas de Gantt, por ejemplo) de forma automatizada, de tal forma que cada vez que un proyecto está programado, se calcula y destaca visiblemente las tareas más importantes. Las tareas se asignan a los recursos de cada usuario.
- Visibilidad financiera: para la toma diaria de decisiones sobre el departamento y sus proyectos, una correcta visualización del rendimiento financiero mediante la recopilación de los costes reales.
- Plan presupuestario: El objetivo es establecer y administrar el presupuesto de TI durante todo el ciclo de vida del proyecto. Los directores de IT obtienen la flexibilidad necesaria para adaptarse con rapidez, a medida que cambian las previsiones de los objetivos de negocio.
- Gestionar los recursos: (actividades estratégicas y operativas en cualquier etapa del ciclo de vida del proyecto). Permite un completo entendimiento de los recursos internos o contratados que se encuentran comprometidos y/o asignados a diferentes tareas o proyectos. De esta manera, los jefes de proyectos pueden responder rápidamente a los cambios con una clara comprensión de los posibles efectos en la capacidad de los recursos y en la priorización de trabajo.
- Automatización: Habitualmente, las empresas tratan un volumen de cientos de proyectos y equipos que se distribuyen geográficamente, a esto se añade la participación de socios externos, subcontratistas y empresas internacionales. Para afrontar este reto, la automatización de los flujos de trabajo en el proceso de gestión de proyectos, permite el control del mismo reduciendo los tiempos de ejecución, el presupuesto, y por ende los riesgos y costes asociados.
viernes, 9 de septiembre de 2011
Servicios TIC: Equilibrio entre garantía y utilidad
Mucho se ha hablado sobre cuál es el modelo de gestión más adecuado, cuáles son las mejores prácticas, e incluso si implantar un sistema de gestión introduce demasiada burocracia. Sin embargo, mi intención es hacer una reflexión sobre algo mucho más elemental, pero que considero que a menudo se pierde de vista: el propio concepto de SERVICIO.
Realmente, ¿Qué entendemos por servicio? Son de aquellas cosas intangibles que nos cuesta definir. De hecho la RAE presenta 20 entradas para este concepto, y creo que ninguna de ellas se acaba de ajustar al concepto de servicio TIC. Por ello, prefiero acudir a ITIL®, que define el servicio como “un medio de entrega de valor a los clientes facilitando los resultados que los clientes desean lograr sin la responsabilidad sobre los costes y riesgos específicos”.
El concepto de costes y riesgos específicos es bastante intuitivo, por ejemplo, todos necesitamos un teléfono móvil profesional, pero ninguna compañía decidiría desplegar su propia red de comunicaciones en lugar de contratar el servicio a un operador (no estamos dispuestos a asumir los costes y riesgos específicos de desplegar el servicio).
Sin embargo, ¿En qué consiste la entrega de valor? A nivel conceptual, el valor que se entrega es el hecho que nos diferencia de la competencia, el que hace que el cliente nos perciba como un activo para su operativa y no como un gasto innecesario, y en definitiva, el que hace que nos seleccione a nosotros en lugar de a cualquier otro competidor.
En este punto, es importante aclarar que esta definición es aplicable a cualquier proveedor de servicios, incluso para aquellos cuyo cliente es su propia organización: Al fin y al cabo, la provisión con recursos propios también supone un coste, y todo servicio podría llegar a ser externalizado. Por este motivo, los proveedores de servicios deberíamos analizar si para nuestro cliente los servicios ofrecidos “valen más de lo que le cuestan”.
Cuando explico estos conceptos nuevamente acudo a ITIL® para presentar la composición de valor a través de dos conceptos clave: la UTILIDAD y la GARANTÍA.
Utilidad es qué se provee. La característica de cumplir con un objetivo, es decir, que realmente aporte “algo” a la organización. En caso contrario, ¿Para qué ofrecer este servicio? Y en este sentido, se trata de aportar una de las siguientes características:
- Soportar el rendimiento: supone un rendimiento positivo en las tareas realizadas, o en los resultados obtenidos. Volviendo al ejemplo anterior, la telefonía fija facilitó la comunicación a larga distancia, agilizando así la operativa de las organizaciones.
- Eliminar restricciones: permite realizar una tarea que en caso de no disponer del servicio sería imposible. En el momento de su aparición, la telefonía móvil no aportaba una nueva utilidad (básicamente el resultado era el mismo que la telefonía convencional), sin embargo, eliminó la barrera de tener que buscar un teléfono o una cabina telefónica, la de no poder localizar en cualquier momento a una persona, etc.
Garantía es cómo se provee. Consiste en ofrecer dicho servicio en buenas condiciones, de forma que el cliente pueda confiar en él. Para ello, obligatoriamente deberá cumplir con las siguientes características:
- Suficiente disponibilidad: Imaginemos que la mitad de las veces que intento llamar por teléfono no puedo establecer la conexión. ¿Cómo puedo valorar positivamente este servicio?
- Suficiente capacidad: Si el sonido se interrumpiera constantemente cuando paso por una zona con más personas hablando por teléfono, el servicio resultaría poco fiable.
- Suficiente continuidad: Si en mi casa dejara se tener cobertura durante toda una semana porque ha caído un repetidor de señal, ¿Continuaría confiando en el operador?
- Suficiente seguridad: Por último, si cualquiera pudiera interceptar mis conversaciones, seguramente dejaría de utilizar este servicio para preservar mi intimidad.
Todo ello resulta bastante lógico e intuitivo, sin embargo, a la hora de la verdad, acaba difuminándose. Normalmente el cliente se preocupa por exigir UTILIDAD (pese a que evidentemente también requiere un nivel aceptable de garantía), y son el grupo de desarrollo y los responsables funcionales quienes se focalizan en conseguir dicho objetivo. Como contrapartida, el departamento de sistemas se centra en conseguir la GARANTÍA del servicio. ¿Dónde se rompe este equilibrio? La respuesta es clara: en el momento en que se valoran las restricciones de coste y tiempo. Y en estos casos, normalmente se opta por dar prioridad a la UTILIDAD en detrimento de la GARANTÍA.
Sin embargo la lógica dice que únicamente cuando se cumplen las dos características (tanto la utilidad como la garantía), estamos en condiciones de ofrecer valor al cliente. Luego, la pregunta es evidente: ¿realmente todos los servicios que ofrecemos están aportando valor? Y si la respuesta no está clara, será el momento de hacer algo al respecto …. quizás revisar el catálogo de servicios.
lunes, 4 de julio de 2011
Wifi: La amenaza invisible
Crackeo de Wifis
Los protocolos más comunes de cifrado wifi son WEP y WPA/WPA2. El algoritmo WEP se rompió hace años. Por eso, obviando los métodos o detalles técnicos, una red wifi WEP con clientes haciendo uso de ella se tardaría desde segundos (claves por defecto de operador), a una hora como máximo en descifrar. Cuando una contraseña WEP es la única barrera de protección a la red interna la organización tiene definitivamente un problema.
Existen métodos para el crackeo de redes WPA/WPA2, aunque dependen en gran medida de la fortaleza y longitud de la contraseña. Es preferible tomar las recomendaciones típicas sobre políticas de contraseñas y cambiarla cada cierto tiempo.
Algunos de los métodos para conseguir contraseñas WPA/WPA2 agilizan el proceso con el uso de clústers y GPUs, ya que el crackeo se puede realizar offline, es decir, fuera del alcance de la red, una vez capturados los datos necesarios (WPA handshake).
Segmentación e independencia
Otros de los factores que debemos analizar son la información, servicios y recursos a los que pueden acceder los usuarios una vez obtienen acceso. Se debe tener en cuenta por dos razones: por los distintos roles de usuarios que pueden acceder a dicha red y por los usuarios no legítimos que puedan obtener la contraseña (crackers, curiosos, antiguos empleados, etc.).
No es lo mismo un Director General de una empresa accediendo por wifi a los archivos confidenciales de una empresa que un empleado externo o un invitado accediendo a internet. Se debe ser riguroso con el control y acceso a las redes y cuidadoso con la asignación de permisos para los distintos roles de usuario.
Cada vez es más importante diseñar una estructura de red que mantenga una arquitectura con dos o más redes separadas o incluso segmentadas internamente a través de redes virtuales VLANs.
Por otro lado, imaginemos por un momento que alguien de forma fraudulenta o un antiguo empleado accede a la red wifi corporativa. ¿Sabemos con seguridad a qué recursos tendría acceso? ¿Se auditan o monitorizan estas acciones de forma regular? ¿Cuándo fue la última vez que se cambió la contraseña de las redes wifi? La contraseña de la red inalámbrica no puede ser nunca la única forma de protección.
Sniffing de tráfico
Todos los datos/paquetes que se envían por redes inalámbricas, pueden ser interceptados por tarjetas en modo monitor. En los protocolos WEP y WPA/WPA2 los datos interceptados están cifrados, pero en el protocolo abierto (sin contraseña), los datos transmitidos pueden ser capturados y leídos tal como son emitidos.
Lo que mucha gente no sabe, es que conociendo la clave de una wifi puede descifrarse el tráfico entre emisores y receptores. La prueba de concepto siempre sorprende, y el nivel de seguridad al que se está expuesto dependerá del protocolo de red usado. Si se usan FTPS, HTTPS, ssh, nuestros datos siempre estarán más seguros que con los protocolos FTP, HTTP o telnet en los que pueden verse en texto plano datos y contraseñas. En resumen, alguien que supiera la contraseña de la red, no sólo podría campar a sus anchas en la red, sino que podría recopilar credenciales de la organización.
Para estas pruebas de concepto, existen programas como Firesheep (addon de Firefox -http://codebutler.github.com/firesheep/) o Faceniff (Aplicación de Android http://faceniff.ponury.net/) que sorprenden por su facilidad de uso, y por los resultados obtenidos. Existen herramientas de uso más complejo que consiguen resultados más sofisticados y exhaustivos .
Medidas de seguridad adicionales
Existen varias medidas complementarias a una simple contraseña:
- Filtrado de MAC: en grandes entornos puede ser complicado gestionarlo, pero es un método de control simple pero efectivo. Debemos tener en cuenta que existen técnicas sencillas de mac-spoofing (http://www.govannom.org/seguridad/14-wifi-wireless-redes/154-como-hacer-mac-spoofing.html) y también es cierto que algunos Access Point pueden detectar el mac-spoofing. Tal como la contraseña, no puede ser la única medida de seguridad.
- SSID oculta: Medida que sirve básicamente para evadirse del punto de mira de curiosos. Cualquiera con los conocimientos y herramientas necesarias puede obtener fácilmente el SSID (también conocido como nombre de la red). La seguridad por oscuridad se convierte en un sencillo paso más en el crackeo de la red y más cuando el atacante sabe qué se busca.
- SSID distinto: Una medida de seguridad sencilla es renombrar la wifi con un SSID que no identifique la empresa.
- Otras: a medida que crecen las organizaciones, la complejidad de sus redes y la concienciación en la seguridad de la información se usan soluciones más sofisticadas como pueden ser NAC, UAC, Radius o portales cautivos por poner algunos ejemplos. Todas son herramientas que mejoran de forma sustancial la seguridad de las redes inalámbricas.
En Conclusión:
Para evitar la intrusión de usuarios maliciosos y garantizar la confidencialidad de los datos es recomendable seguir las siguientes instrucciones:
- Las redes wifi deben considerar la encriptación WPA2 preferentemente, con una contraseña compleja y larga (mínimo 12 caracteres).
- Debe existir una segmentación de red adecuada para los tipos de usuarios que se conectaran a la red inalámbrica.
- Crear una red de invitados separada de la red interna, para conceder únicamente conexión a internet a los proveedores que lo requieran.
- No se puede confiar solamente en una contraseña, el uso de más medidas de seguridad es muy recomendable.
- Monitorizar la red y los equipos conectados a ella, ya sea de forma manual o automatizada para evitar ataques.
Es posible que alguno piense que estas medidas son muy básicas, pero nuestra experiencia nos dice que no siempre se siguen estas recomendaciones. Para ilustrarlo, desde nuestras oficinas, se puede ver una red inalámbrica con el SSID que es el nombre de una organización que utiliza una clave WEP. Esperamos por su bien, que sea una red de invitados bien gestionada. Aunque desafortunadamente, creo que eso sería mucho esperar.
miércoles, 29 de junio de 2011
Evento Hacking Ético
Abast Grup y Buguroo (Grupo Ecija Consulting&Security) os invitan a este seminario en el que os mostraremos cómo mejorar vuestros niveles de seguridad.
El evento se realizará mañana día 30 de junio en las oficinas de Abast en Barcelona (c/equador 39-45). Se iniciará a las 9:45 y finalizará aproximadamente sobre las 12:00h. La agenda será la siguiente:
- Café de bienvenida y entrega de documentación
- Charla sobre hacking ético: ¿Cómo?, ¿cuando?, ¿donde? a cargo de David Ortega, Director de Consultoría y Auditoría de TI de Abast Systems
- Demostración práctica de la herramienta Buguroo de análisis de vulnerabilidades en código fuente a cargo de Abel González Lanzarote, Director de Operaciones de Buguroo Offensive Security
- Ruegos y preguntas
- Aperitivo
Para apuntaros podéis llamar al 902 486 901 o inscribiros en www.abast.es/seminarios. Os esperamos.
viernes, 10 de junio de 2011
Monitoriza tu negocio
- Medir y administrar los procesos críticos para asegurar la obtención de resultados esperados.
- Monitorizar de arriba abajo la tecnología con el fin de integrar a usuarios finales y perspectivas de sistema, dando una imagen clara de la complejidad de la infraestructura que soportan las aplicaciones más importantes para el negocio.
Cuando los usuarios interactúan con las aplicaciones, sus acciones incluyen una serie de peticiones que interactúan con los componentes tecnológicos (firewalls, switches, routers, servidores, bases de datos,...) que generan respuestas que deben ser validadas y traducidas como tiempo de respuesta y disponibilidad.
Podemos identificar como una correcta monitorización del negocio la que:
- Se realiza desde múltiples localizaciones (dentro y fuera de los firewalls) obteniendo medidas de disponibilidad y rendimiento.
- Permite detectar problemas que pueden impactar a los usuarios antes de que éstos queden afectados.
La captura minuciosa de estos datos de forma repetitiva y consistente desde cualquier lugar de la red permite crear una línea base de funcionamiento y tener una visión clara del funcionamiento de las aplicaciones monitorizadas. De esta forma podremos alinear la organización IT con las prioridades de negocio.
Al fin y al cabo se trata de:
- Capturar de forma rápida la actividad en tiempo real de los usuarios, viendo donde se hizo el clic así como las páginas y los errores que percibo o no el usuario.
- Comprender el impacto que tienen en el negocio los incidentes en la disponibilidad del servicio
- Dar la prioridad adecuada para responder a los múltiples problemas en el orden correcto.
Todas estas prácticas darán valor al departamento de TI que proveerá al negocio:
- Una visualización en profundidad de los procesos empresariales.
- Un seguimiento y medida de las transacciones individuales conforme progresan a través de sus cauces de proceso.
- Convergencia entre los sistemas de bajo nivel y monitoreo en la red, y los procesos de negocio de alto nivel.
Por último, hay que proporcionar al negocio de una solución eficaz para reducir el número, duración y gravedad de las interrupciones del servicio. Para ello hay que realizar un análisis para manejar los problemas de manera integral, que podemos dividir en dos ramas:
- Análisis proactivo: proporciona una visibilidad avanzada en interrupciones en el servicio al mostrar problemas y automáticamente aislar sus las causas del mismo. Esta capacidad permite solucionar el problema antes de que se produzcan impactos en la empresa.
- Análisis reactivo: En el caso de que se produzca un incidente o problema, el análisis reactivo reduce el tiempo medio de reparación (MTTR).
(MTTR es el acrónimo de las palabras inglesas Medium Time To Repair, o tiempo medio hasta haber reparado la avería).
El mercado actual ofrece herramientas varias para conseguir este tipo de monitorización, pero lo más importante es hacer un análisis del negocio, las aplicaciones y los usuarios, desde un punto de vista de valor para poder medir cada uno de los mencionados de la forma correcta.