viernes, 30 de octubre de 2009

Las empresas siguen expuestas a retos de seguridad que podrían evitarse

Con la intención de ayudar a los departamentos TI a evaluar y mejorar la seguridad de los puntos extremos de sus redes, como escritorios, notebooks, smartphones, MP3 y minipendrives o thumb drives, Novell anuncia los resultados finales de su estudio Threat Assessment, donde se constata que muchas empresas siguen expuestas a retos de seguridad evitables.

Según la encuesta Threat Assessment realizada por Novell, todavía muchas organizaciones muestran vulnerabilidades de seguridad significativas, especialmente en lo que se refiere a protección de datos inadecuada, políticas de acceso móvil insuficientes, y ausencia de integridad de sistemas ycontrol de aplicacionesen los dispositivos en los extremos.

En lo que se refiere a protección de datos, 71% de las empresas sondeadas aseguran no encriptar los datos residentes en las portátiles y 73% tampoco lo hacen con los datos de sus dispositivos de almacenamiento desmontables; incluso 78% dice no informar de qué datos albergan estos dispositivos.
En lo que se refiere a movilidad, 90% de las respuestas afirman que sus usuarios finales acceden a redes inalámbricas abiertas y no aseguradas cuando salen de la oficina, arriesgando sus terminales y datos a sufrir ataques.

En cuanto a integridad de los sistemas y control de aplicaciones, 53% de los entrevistados no protegen sus redes del tráfico P2P como Bit Torrent y Gnutella, mientras que 65% no impide el acceso de sistemas que carecen de herramientas de verificación de sistemas, como software antivirus.

“Los retos de seguridad perimetral están evolucionando rápidamente,” afirma Grant Ho, gerente de soluciones de Endpoint Management de Novell. “Cada día se pierden datos vitales de los clientes debido a unas prácticas de seguridad poco estrictas. El estudio Threat Assessment está diseñado para que las empresas comprendan mejor sus vulnerabilidades de seguridad, así como para ofrecer una guía para comprobar si están hacienda lo correcto respecto de la seguridad de sus puntos extremos y la protección de la información corporativa sensible”.

A partir del sondeo Threat Assessment, Novell identifica las tres mejores prácticas para proteger los puntos perimetrales, como simplificar tal protección mientras se reducen los costos TI unificando las soluciones de seguridad bajo una sola consola de administración. Asimismo, los administradores TI deben asegurar sus terminales móviles y proteger sus datos con soluciones que controlen los medios removibles, el almacenamiento y los terminales con soporte de Wi-Fi mientras se mantienen la integridad del sistema 24/7 con independencia de que estén o no conectados a la red.

Finalmente, el uso de tecnología de control de accesos NAC puede ayudar a prevenir la entrada en la red de retos de seguridad que pueden contaminar otros dispositivos.

Fuente: CIO
Áportación: Karina Elisea Gómez / Marketing Staff

lunes, 19 de octubre de 2009

Hoy en día, los CIOs deben buscar cuáles son los aspectos que precisan reforzar para cumplir los objetivos de su organización de TI y hacer frente a una situación de crisis económica que está dejando huella en todo el sector.

Ésta no es la primera vez que las empresas se encuentran sumergidas en este tipo de eventualidades. La última vez que la economía falló, algunos CIOs reaccionaron como si se les cayera el cielo encima y dominados por el pánico, tomaron decisiones equivocadas a la hora de recortar gastos. La experiencia ha enseñado que es necesario planear con antelación los recortes, sin descuidar la capacidad de la empresa para volver a crecer cuando se precise.

Eliminar competencia de TI
El boom de Internet provocó excedentes, que las tiendas de informática acumularan programas que no utilizaban y que hubiera cantidades ingentes de contratos sin leer. Por aquel entonces, los pioneros de los subcontratos de infraestructuras, diseñados para ‘ahorrar’, eran lanzados al mercado sin ni siquiera realizar un análisis aproximado del costo. Los viajes no eran una necesidad y las existencias de todo el mundo estaban al máximo.

Cuando explotó la burbuja, las empresas de TI se convirtieron en presas fáciles. Los gastos bajaron de forma considerable, pero con poca contingencia y no se realizó casi ninguna predicción estratégica sobre qué es lo que pasaría cuando el crecimiento se retomara. Los vendedores abandonaron el negocio, los capitalistas arriesgados dejaron de aportar ideas y los equipos de TI e I+D se disolvieron, obstaculizando cualquier tipo de innovación. Mientras tanto, los niveles de servicio caían y los conocimientos básicos empresariales se dejaban de lado a la vez que los subcontratos impulsivos aumentaban.

Finalmente, el sector de TI perdió su encanto para los jóvenes que comenzaban a cursar su carrera, produciéndose justo en el momento en el que la media de edad del personal de muchas organizaciones empezaba a madurar, situándose en torno a los cincuenta años.

Asegurar el futuro
El haber vivido una situación de crisis anterior ha hecho que los responsables sepan que hay ciertos recortes –como prescindir de inversiones en I+D– que debilitan la capacidad de los departamentos de TI para responder una vez que el negocio se ha puesto al día y es preciso contribuir a la innovación.
Suponiendo que la organización ya está llevando a cabo la estrategia correcta para solventar la situación tanto a nivel tecnológico (consolidar servidores, centros de datos…) como empresarial (licencias de venta y acuerdos de mantenimiento; aplazar adquisiciones y cómodos servicios de subcontrato bajo contratos que en verdad ayudan al ahorro), y que ha estructurado adecuadamente la organización ofreciendo incentivos de jubilación anticipada a empleados aptos, terminado cualquier papel de contratación de nuevo personal y aplazando los puestos vacantes de empleados.
¿Por qué con esto se obtendrá el éxito?
La pregunta es si estas tácticas realmente funcionan siendo TI un objetivo con unos gastos tan difíciles de reducir. La experiencia ha enseñado y, actualmente, los CIOs se comunican bastante mejor y saben cómo llevar un negocio y cómo explicar el impacto de las TI en los ingresos de la empresa, así como el valor de posiciones estratégicas de TI y la necesidad de nuevos contratos de alto potencial y bajo costo.

El responsable de TI está bien posicionado y posee las habilidades necesarias para escuchar a los trabajadores y negociantes asociados. Los CIOs que vivieron la crisis de TI de años anteriores son ahora más precavidos a la hora de planear el futuro que la organización realmente necesita.

Fuente: CIO Infoworld
Aportación por: Karina Elisea Gómez / Marketing Staff

miércoles, 7 de octubre de 2009

Consolidación y virtualización

Otras tendencias que existen en torno a los centros de datos son la consolidación y la virtualización, estrategias con las que las empresas buscan optimizar sus recursos y aprovechar de mejor manera su infraestructura, ya que se dice que en promedio los servidores están siendo utilizados entre 15% y 20% de su capacidad total.

El bajo aprovechamiento de la capacidad de almacenamiento se debe a que cada que las empresas implementaban una nueva aplicación, por lo general, luego de que los encargados de TI evaluaban las diferentes opciones de software y seleccionaban uno, compraban un servidor para esa aplicación y en algunos casos hasta un acceso dedicado y un switch si ya no había puertos disponibles. A dichos servidores no se les montaba otra aplicación porque existía la complicación de saber cuáles softwares pueden convivir entre sí.

“La virtualización consiste en poder particionar las cajas físicas en cajas virtuales”, señaló el vocero de EDS, una compañía de HP; de tal suerte que cada equipo puede servir a más de una aplicación sin que choquen entre sí.

“Actualmente, ya estamos hablando de consolidación y se está dando la virtualización de los centros de datos, es decir yo tengo 15 centros de datos por toda la república o por todo el continente, los consolido en dos o tres lugares físicos, siendo uno espejo del otro o siendo uno respaldo del otro; y ya que los tengo consolidados, los puedo virtualizar. En la parte de virtualización, lo que hacemos es optimizar los recursos dentro del centro de datos. De esta manera las compañías obtienen ahorros de espacio y de dinero”, detalló Jorge de la Fuente, de Panduit.

“La virtualización en parte también ayuda en el enfriamiento, porque permite tener menos equipos físicos para ofrecer los mismos servicios”, agregó el Director de Ingeniería de Sun Microsystems.
La virtualización al principio era utilizada para ambientes de prueba y desarrollo, actualmente las empresas ya la emplean en producción, debido a que se ha probado y demostrado que es confiable, robusta y que no hay riesgos. A eso atribuyó Mauricio Zajbert que la adopción de esta tecnología sea acelerada en todos los sectores del mercado.

Aunque con la consolidación y virtualización, y con la transición de las grandes torres de almacenamiento a los blades, el espacio requerido para los equipos ha disminuido, los directivos de Sun Microsystems y EDS, una compañía de HP, coincidieron en que actualmente el espacio de los centros de datos se mantiene estable debido a que las compañías están siempre implementando nuevos servicios y requieren de nueva infraestructura.

La importancia de la planeación del data center
“Planear el data center de una forma modular permite ir creciendo dependiendo de la demanda que se tenga del servicio y del propio centro de datos. Por ejemplo, no se tiene que enfriar toda un área o un cuarto completo, sino se va enfriándolo y adecuándolo de manera modular”, puntualizó Roberto Treviño.

De esta forma, es posible crear zonas de alta densidad de calor donde sean implantadas estrategias y elementos particulares eficientes de enfriamiento.

Asimismo, es importante la planeación desde el día cero en los casos de consolidación y virtualización, dijo Jorge de la Fuente, de Panduit.

“Para virtualizar y consolidar tiene que haber una planeación desde el día cero, tomando en cuenta que la infraestructura es la parte medular del centro de datos porque es lo más complicado de migrar. Si la infraestructura no está considerada desde el día cero, lo más probable es que tengamos un data center más pequeño pero con más problemas de los que teníamos antes. Entonces, la gente de sistemas en lugar de estasr haciendo cosas importantes estaría haciendo cosas urgentes”.

Para evitar problemas, Panduit recomienda instalar tecnología en la parte de infraestructura que al menos soporte dos migraciones de equipo activo o dos migraciones tecnológicas.
“En otras palabras, si ahora estamos con trasmisiones de un gigabyte que ya es normal en la parte de servidores e incluso en equipos de escritorio y laptops, que soporte ese giga, que soporte 10 gigas que será la siguiente generación y que pueda llegar a soportar la siguiente generación que no está definida. Esto da una vida útil del centro de datos de unos 10 ó 15 años en la parte de infraestructura”, destacó Jorge de la Fuente.

Fuente: CIO México
Aportación: Karina Elisea Gómez / Marketing Staff

viernes, 2 de octubre de 2009

Seis consejos para transformar un trabajo aburrido

Usted sabe lo que se siente: fue divertido mientras duró. Esperaba con ansias llegar a su trabajo todos los días, pero ahora le cuesta mucho salir de casa. Le gustaba tomar en sus manos los proyectos de tecnología que implicaban un gran reto y estaba dispuesto a darle a los distintos departamentos de su empresa lo que necesitaban; ahora pone una barrera, antes las responsabilidades inesperadas.

Como lo pueden atestiguar muchos profesionales de TI, incluso el puesto más emocionante puede perder su atractivo con el tiempo. Si la luna de miel duró dos meses o dos años, la pregunta es qué hacer al respecto.

Primeramente, no asuma que su insatisfacción se deriva totalmente de los aspectos inalterables de su empleo. Por el contrario, dese tiempo para pensar qué puede hacer para darle vida a la situación. Si sigue sintiéndose totalmente desconectado después de haber hecho ese esfuerzo, sabrá que es hora de asumir un nuevo reto. Para comenzar, le presentamos seis consejos esenciales para “resucitar su empleo”.

Haga su propia descripción de su trabajo
Los profesionales de TI más satisfechos son aquellos que han moldeado sus tareas para adaptarlas a sus talentos e intereses. Si usted depende de ciertos componentes para su empleo, busque formas de incrementar estas actividades y reducir aquellas con las que no se siente a gusto. Muchos gerentes quieren que sus empleados optimicen su potencial y apoyarán estos esfuerzos siempre y cuando produzcan resultados.

Fije una meta
¿Sabe cuál será el siguiente paso que dé en su carrera? Establecer una meta tangible le ayuda a tener un propósito, un componente clave para la satisfacción laboral. También le ayuda a avanzar en su profesión. Piense dónde le gustaría estar en cinco años y cómo planea llegar ahí. Alcanzar su objetivo podría requerir nueva capacitación técnica, mejorar sus habilidades interpersonales o establecer más relaciones. Los pasos que dé no sólo fortalecerán su autoconfianza sino también fortalecerán sus oportunidades de elevar sus ingresos y obtener ascensos.

Haga más amigos
Entablar amistad con sus colegas puede ayudarle a enfocarse más en el éxito del equipo y menos en sus preocupaciones laborales individuales. Esto no significa que tenga que pasar todo su tiempo libre con sus colegas; de hecho, muchos amigos en el trabajo raramente socializan fuera de la oficina. Los amigos del trabajo sirven como un sistema de apoyo integrado cuando llegan épocas difíciles y eleva el entusiasmo que siente por su trabajo a diario.

Maneje el estrés
Es imposible que el trabajo no ejerza cierto estrés, pero mucha de la ansiedad es auto inducida. Regla número uno: No se preocupe por las cosas que no puede controlar, como las opiniones de su gerente. Otra buena práctica: Confronte los proyectos que exigen mucho esfuerzo. Es tentador postergarlos cuando tiene una dificultad particular o una tarea desagradable en su lista de cosas pendientes por hacer, pero cuanto más pronto la enfrente, más rápido pasará a otra cosa.

Finalmente, tómese recesos periódicos, incluso si está ocupado. Puede pensar que está ahorrando tiempo al no salir a almorzar, pero detenerse para recargar las baterías le ayudará a sentirse renovado y se enfocará en la tarea que debe realizar.

Corra el riesgo
El crecimiento profesional implica tomar riesgos de forma inteligente. A menudo, una acción que puede impulsar su carrera – como pedir un aumento, dar una presentación fuera del departamento de TI, invitar a su jefe a comer o encabezar un proyecto de alto perfil – estará fuera de su zona de confort. Si bien es normal tener miedo al fracaso, no deje que los sentimientos negativos lo dominen. Puede ser de gran satisfacción superar los retos personales y adentrarse a nuevos terrenos.

Busque apoyo
Hable con mentores y colegas en quienes confía que puedan ofrecerle una retro-alimentación franca sobre su situación. Pueden haber enfrentado retos similares en sus trayectorias y pueden recomendar formas de superarlos. Además, hablar de sus preocupaciones y frustraciones de manera abierta puede ayudarle a desarrollar sus propias soluciones y aliviar la sensación de aislamiento.

Revivir un trabajo que parece haber caído en la monotonía no sucede de la noche a la mañana, y en algunos casos, no sucederá jamás. Pero esforzándose, tendrá una idea más clara de lo que lo inspira a hacer mejor su trabajo, así como las condiciones que lo desaniman. Ya sea que permanezca en su trabajo actual o busque una nueva oportunidad, puede descubrir con el tiempo que está haciendo cambios positivos que no sólo lo motivan más sino que también lo llevan por la ruta hacia alcanzar sus objetivos profesionales.


Fuente: CIOInfoworld
Aportación: Karina Elisea Gómez / Marketing Staff

viernes, 25 de septiembre de 2009

¿Está su empresa preparada para un segundo brote de la influenza A H1N1?

Comencemos por repasar el procedimiento para realizar un Plan de Continuidad de Negocio (BCP, por sus siglas en inglés) y centrándonos en la amenaza que representaría una pandemia del virus de la influenza A H1N1 que podría afectar a un porcentaje alto de la plantilla. El objetivo es tener la capacidad de reacción ante un contagio masivo de personal por influenza, estableciendo las medidas previas y de recuperación necesarias para minimizar el impacto de tal amenaza.

Antes de empezar
Antes de poner manos a la obra conviene que tener claras las definiciones de los siguientes conceptos:

Plan de Continuidad de Negocio (BCP): se trata de una serie de procedimientos alternativos a la forma habitual de proceder de la empresa, de tal forma que, en caso de una interrupción de la actividad por cualquier motivo, se garantice la continuidad de las operaciones.

Plan de Recuperación ante Desastres (DRP): es una parte del BCP compuesta por una serie de procedimientos y actividades que permiten a la organizaciónhacer frente a un desastre y reiniciar sus actividades críticas en unos niveles aceptables.

Plan de Contingencia: también forma parte del BCP y está orientado a establecer las acciones necesarias para garantizar el servicio en caso de que se interrumpan los sistemas de información.

Análisis de Impacto (BIA): es el estudio que permitirá conocer la influencia económica o el impacto de un desastre en determinado proceso o actividad. De esta forma se puede establecer prioridades a la hora de recuperar servicios.

Objetivo de Tiempo de Recuperación (RTO): es el máximo tiempo permitido para recuperar una actividad que ha sido interrumpida. Sobre el RTO han corrido ríos de tinta. Podemos entrar en consideraciones sobre si la actividad tiene un cierto nivel de degradación o no, sobre si necesitamos restaurarla al 100% o no. Consideramos que el RTO es el tiempo que se tiene para recuperar una actividad, no necesariamente realizada con los mismos medios, para no perder calidad de servicio al cliente, al usuario, etc. Con las premisas que hemos establecido podemos preguntarnos: ¿cuánto tiempo puedo estar con una determinada persona de baja?, ¿cuánto tiempo puedo estar con un sustituto para esa persona teniendo en cuenta la posible merma de calidad en el servicio?
Máximo tiempo de caída (MTD): periodo máximo de interrupción de un proceso sin que se entre en colapso. Si se supera este plazo, las pérdidas ya son excesivas.

Otras consideraciones que no se deben olvidar:
- El nivel de seguridad cuando ocurre un desastre y se activa el BCP debe ser el mismo que en condiciones de operativa normal.

-Cualquier legislación que aplique en caso de operativa habitual tiene que seguir aplicándose en cualquiera de las fases del BCP.

- El inventario de teléfonos fijos, móviles, direcciones de correo, direcciones postales, etc. debe estar completamente actualizado.

Fases de elaboración del BCP

La elaboración de un BCP puede resumirse en cuatro fases: análisis del negocio, estrategia de respaldo, desarrollo y divulgación; y pruebas y mantenimiento. A continuación vamos a verlas detalladamente, siempre teniendo en cuenta que la amenaza se llama Virus A H1N1 y que el activo afectado son trabajadores y por tanto su actividad, su capacidad de prestar servicio a clientes, etc.

1) Análisis del negocio
Para elaborar un análisis del negocio, lo primero es establecer un inventario de los procesos en función de la importancia. Así podremos decidir cuáles de esos procesos son críticos, analizando el impacto económico que tendría a lo largo del tiempo una suspensión de esos procesos.

También se debe asignar los procesos a las personas que los realizan, y analizar qué capacidad operativa pierde la empresa a medida que pasa el tiempo con el proceso detenido o muy deteriorado. ¿Cual es el RTO?

En este caso, podríamos elaborar un cuadro con la siguiente información:

-Nombre del proceso o actividad.
-Nombre del responsable del proceso (no necesariamente quien lo realiza).
-Nombre de la persona que realiza el proceso.
-Nivel de degradación aceptable, el RTO y el MTD.
-Impacto económico.
-Consecuencias operativas. ¿Qué ocurre si no se hace?
-¿Quién puede realizar ese proceso en sustitución de la persona afectada?

2) Estrategia de respaldo

Como primera estrategia de tipo preventivo, hay que implantar las medidas recomendadas por las autoridades sanitarias: evitar besarse al saludar, lavarse las manos a menudo, etc.

Si las medidas preventivas no han funcionado y tenemos personal con el virus, se podrían plantear las siguientes estrategias:
-La persona afectada realiza su trabajo desde su domicilio particular.
-La actividad de la persona afectada es realizada por otro trabajador del mismo departamento.
-La actividad de la persona afectada puede subcontratarse de forma temporal.

En el primer caso, ya se han establecido previamente los medios técnicos que permitan tal actividad considerando que:
- Existen mecanismos que garantizan la no suplantación de identidad.
-Existen sistemas que garantizan la confidencialidad de las comunicaciones.
-El trabajador tiene los medios técnicos adecuados, y estos no representan una amenaza de seguridad para la empresa por negligencia, mal uso, falta de actualizaciones, etc.

En el segundo y tercer caso, es necesario que previamente se hayan tomado las siguientes medidas:
-Cada persona debe elaborar una lista de sus actividades habituales y periódicas.
-Documentar procedimientos breves y claros de cómo se realiza esa actividad.
-El sustituto debe saber cómo contactar con el sustituido de forma rápida.
-Relación de personas que pueden resolver dudas sobre tal actividad dentro de la organización.
-Especial atención si el proceso o actividad está sometida a cierto cumplimiento normativo o regulatorio.
- Inventario de recursos utilizados, rutas de acceso a archivos, páginas web, etc.
-Procedimientos claros y ágiles para solicitar permisos de acceso (y posterior revocación) a los recursos utilizados por el sustituido. Evidentemente la política de “utiliza su usuario” no es la más adecuada. En este sentido es conveniente limitar el tiempo de acceso de forma automática.
-El personal subcontratado debe ser informado de la política de seguridad y si es necesario, firmar los acuerdos de confidencialidad necesarios.

Se puede incluir una medida adicional que más que estrategia de recuperación se puede considerar como medida preventiva. Se trata de promover el uso del trabajo a distancia entre gente sana que ha estado en algún departamento donde se ha reportado algún caso de gripe tipo A. De esta forma, en el caso de que una persona sana hubiera quedado afectada, se evitaría la propagación del virus en la oficina.

3) Desarrollo y divulgación del BCP
Una vez que ya sabemos qué procesos son críticos y tenemos valorado el impacto que la ausencia de una persona puede causar en la actividad de la organización, pasamos a desarrollar el BCP. Para ello debemos tener en cuenta los siguientes aspectos:
-Hay que definir un Comité de Crisis y los equipos necesarios para desarrollar el plan. El Comité de Crisis debe coordinar todas las acciones de todos los equipos.
-Deben quedar claras las responsabilidades individuales.
-Debe quedar claro cómo se activa un procedimiento de emergencia y quién es la persona autorizada para hacerlo (suele ser el Comité de Crisis).
-Hay que prever la vuelta a la normalidad, es decir, revocar permisos dados a terceras personas de forma temporal, actualizar los sistemas de información con datos o documentos producidos y almacenados en equipos personales etc.
-En función del tamaño de la entidad, se puede plantear la necesidad de crear equipos dedicados exclusivamente a la recuperación, equipos de atención logística etc.
-Debemos tener procedimientos claros para comunicar la situación de activación del BCP a nuestros clientes, proveedores, empresas subcontratadas, etc. Informarles en qué les afecta así como de las medidas tomadas para evitar pérdida de calidad en el servicio.

Hay que seguir un principio muy importante durante la ejecución del BCP y hasta que se vuelve a la normalidad. Se trata de dejar CONSTANCIA ESCRITA de todas las decisiones tomadas, efectos producidos, actas de reuniones, evaluaciones del comité, etc.

Esta medida va a ser la mejor forma de aprender de nuestros propios errores y poder corregirlos para reforzar la consistencia de nuestro BCP.

La divulgación del BCP es un punto crítico. Para ello es necesario definir objetivos de concienciación y entrenamiento; desarrollar e implementar los programas de entrenamiento; establecer los mecanismos físicos de divulgación (circulares, charlas, servidor web intranet, etc); y definir métricas para medir el grado de divulgación y conocimiento del BCP.

Escrito por: Rafael González el jueves, 24 de septiembre de 2009
Aportación: Karina Elisea Gómez / Marketing Staff

martes, 15 de septiembre de 2009

75 por ciento de las violaciones de datos se originan dentro de las empresas

Escrito por: –Sumner Lemon el martes, 21 de octubre de 2008 y tiene 0 comentario

79 por ciento de las empresas que participaron en el estudio admiten haber tenidos problemas de robo o violación de datos críticos para sus negocios. Pero lo más relevante es que, la mayoría de las violaciones de datos críticos de las empresas provienen de ataques o problemas desde dentro de las propias compañías. Concretamente, 75 por ciento de las violaciones están provocados internamente. Y, por sorprendente que parezca, los ataques de hackers no son tan preocupantes, pues ocupan el quinto puesto del ranking realizado para Compuware.

Según advierte Gartner, las empresas deben tener en cuenta que no basta con depositar confianza en sus empleados, pues va en detrimento de su seguridad y de los intereses de su negocio. Por ello, según la consultora, es necesario implantar prácticas de seguridad fiables, pero además, es necesaria la concienciación en torno al tema y la instalación de herramientas encaminadas a este objetivo. De este modo, las empresas pueden proporcionar un defensa integral y efectiva contra cualquier amenaza.

El estudio encargado por Compuware también demuestra que 41 por ciento de todas las violaciones de datos se producen en entornos mainframe, lo que compromete en gran medida los datos confidenciales de clientes y personas, pues más del 80 por ciento de los datos corporativos y gubernamentales del mundo residen en este tipo de entornos.

Y es que, tal y como declara Larry Ponemon, fundador y director del Instituto Ponemon, "la seguridad de los datos se ha convertido en un asunto crítico tanto para la integridad del negocio como de las personas".

Fuente: InfoWorld.
Aportación: Karina Elisea Gómez / Marketing Staff

miércoles, 26 de agosto de 2009

WEBSENSE: Liderazgo en el mercado global de productos de filtrado de contenido

Websense, anunció que Frost & Sullivan, una firma de investigación y consultoría, otorgó a Websense dos prestigiados premios por su innovación en productos y liderazgo en mercadotecnia.

Websense recibió el Premio al Liderazgo en el Mercado Global de Productos de Filtrado de Contenido por su fuerte desarrollo de productos y estrategia de mercado que le han permitido a Websense seguir siendo el líder en el mercado de filtrado de contenido durante los últimos cuatro años. La firma de análisis reporta que Websense ha crecido continuamente de año a año, y que tiene más de 26 por ciento del mercado global de filtrado de contenido en 2008 valorado en $2,700 millones de dólares.

“Si bien Websense tiene una base sólida en el mercado de filtrado Web, la adquisición de SurfControl, PortAuthority y el lanzamiento del Web Security Gateway le han dado a Websense una serie robusta de soluciones integradas a través de áreas convergentes de la seguridad Web, la seguridad del correo electrónico y la prevención de pérdida de datos”, afirmó Yin Fern Ko, analista de investigación de Frost & Sullivan.

Frost & Sullivan también otorgó a Websense el Premio Innovación de Producto del Año Norteamérica para Web Content Management gracias a sus innovadores productos de seguridad Web, particularmente el Websense® Web Security Gateway. Frost & Sullivan reconoció a Websense por desarrollar productos de seguridad que superan los retos de seguridad únicos del contenido dinámico en los sitios Web ricos en funcionalidades de hoy, especialmente los sitios y aplicaciones Web 2.0.

“Una de las características más importantes de Websense Web Security Gateway es su capacidad de identificar y prevenir amenazas dinámicas asociadas con los sitios y aplicaciones Web 2.0 al analizar contenido Web nunca antes visto en tiempo real y bloqueando sólo parte de la página Web que presenta la amenaza”, explicó Ko. “Con su protección dinámica contra amenazas y portafolio completo de soluciones de seguridad Web, correo electrónico y de datos, Websense le permite a las compañías aprovechar los beneficios de la Web 2.0 al tiempo de proteger sus redes y la información esencial contra las amenazas originadas en la Web y la pérdida de datos”.

“Websense ha invertido fuertemente en el desarrollo de productos y en adquisiciones estratégicas para ampliar nuestro portafolio de productos y transformar la compañía en el líder de la industria en soluciones integradas de seguridad Web, seguridad de correo electrónico y de prevención de pérdida de datos”, indicó Jim Haskin, vicepresidente de mercadotecnia y director de información de Websense
“Estos premios de Frost & Sullivan validan nuestra estrategia de oferta de productos, y nos honra ser reconocidos por ofrecer soluciones innovadoras que protegen a las empresas y su información esencial contra las amenazas a la seguridad, particularmente las amenazas Web 2.0”.

Fuente: IMS Colombia
Aportación: Diana Díaz / Telemarketing

viernes, 14 de agosto de 2009

¿Qué les falta a las empresas mexicanas para ser exitosas?

¿Alguna vez se ha preguntado el por qué algunas empresas mexicanas no pueden prosperar al mismo ritmo que otras empresas extranjeras? Los factores son muchos y la realidad es que poco se ha hecho al respecto para cambiar esta perspectiva.

En el Simposio AMITI Forum ‘Por TI, un proyecto país’, asistí a una mesa de trabajo que me pareció por demás interesante, pues varios expertos hablaron sobre el tema “Condiciones necesarias para atraer inversiones y exportar servicios en TI”: en primer lugar manejaron la hipótesis de que la mayoría de los proveedores mexicanos no sabían vender, y ¡claro que esta situación la hemos vivido!
En resumen lo que comentaban es que la mayoría de las veces no tienen la capacidad de satisfacer la demanda que prometen, pues no hacen una planeación antes de ofertar algo, la mayoría de las veces venden por vender y si ganan ya después se preocuparán por ver cómo se resuelve, “yo no sé qué voy a hacer si algún día gano un proyecto de GE”, comentaba alguno de los panelistas.
Y es que la mayoría de las veces buscan el mercado equivocado, ¿Cómo queremos competir por las empresas grandes si nuestra capacidad es pequeña? Por ello cuando se gana un contrato grande sin pensar en cómo se daría el servicio, caemos en servicios deficientes, lo que ha hecho que no por nada nos califiquen como que el mexicano siempre hace las cosas al “ay se va”, quemando el mercado y por ende las oportunidades para otras empresas que a lo mejor si tenían más que buenas intenciones.
El problema, replicó otro panelista es que siempre vamos al mercado equivocado, “perdemos la mayoría del tiempo concursando con países del primer mundo”, las empresas que han sido exitosas son las que le han hecho como Bimbo, Telmex, Cemex… “miraron hacia abajo en vez de hacia arriba, pues comenzaron sus exportaciones a países más pequeños que México como Centro y Sudamérica, de ahí fortalecieron sus operaciones y pudieron mirar hacia arriba”.
Otros panelistas decían que no contamos con los niveles de competitividad que algunas otras empresas extranjeras, “las empresas de otros países tienen una mayor facilidad de ganar negocios, la mayoría de las veces ofrecen tarifas ridículas con las que no podemos competir”.
¿Qué podemos hacer entonces? Parece sencillo pero la realidad supera a la fantasía, algunas de las recomendaciones que dejó esta mesa de trabajo fueron: “adquirir capital y habilidades de negocio; es necesaria una capacitación constante para estar preparados con las nuevas tecnologías que están en boga; la mayoría de las empresas no tienen la habilidad para hacer negocios solas por ello es indispensable fomentar alianzas para fortalecer sus debilidades; buscar nichos de negocios específicos, no podemos ser todólogos (especialización); conocer a mi competencia, lo que tiene, lo que ofrece y además estudiar las necesidades de las empresas a las que voy a ofrecer mis servicios; seguir el ejemplo de las empresas mexicanas que han sido exitosas”.
¿Qué hicieron bien las empresas Hindúes para ser líderes? Hiceron las cosas bien y con profesionalismo, ejemplos como Praxis, Softtek y Neoris deberán seguirse, de lo contrario los CIOs mexicanos seguirán contratando a empresas de otros países para satisfacer sus requerimientos locales, que deberían conocer mejor las empresas mexicanas.

Escrito por: CLAUDIA MERCADO ARCEO el viernes, 07 de agosto de 2009
Aportación por Karina Elisea Gómez / Marketign Staff.

viernes, 7 de agosto de 2009

Citrix XenServer 5.5 le planta cara a WMware

A través de tres ofertas principales que parten de coste cero, las empresas podrán seleccionar la virtualización que más se adapte a sus necesidades de negocio.


La estrategia de Citrix durante este año se ha centrado en desarrollar las soluciones de virtualización basadas en Xen. Hace algunos meses lanzó al mercado su primera solución gratuita XenServer y hace poco introdujo el kit Citrix Essentials 5.5. Junto con la versión Platinum, la más completa de la compañía, Citrix está en disposición de hacer frente a la propia VMware en diversos frentes.

Citrix XenServer es la primera solución de virtualización desarrollada de forma nativa en 64 bit.

El pack Essentials ofrece alta disponibilidad, gestión dinámica del flujo de trabajo y algunas otras características adicionales. Mientras tanto, la edición Platinum añade un año de actualizaciones gratuitas, balanceo de carga de máquinas físicas o gestión automatizada de los sistemas virtualizados,entre otras.

El test a XenServer 5.5

Hemos instalado XenServer 5.5 en dos servidores HP DL360 G6 y DL380 G6, así como en un Sun Fire x7170. Cada uno de ellos estaba equipado con procesadores de la familia Intel Xeon 5500 y 12 GBytes de memoria RAM. En el apartado de conectividad, el DL380 G6 y el Sun Fire x7170 aportaban 4 tarjetas de red, mientras que el DL360 tenía 2 de ellas. Esta equipación es la mínima para desplegar XenServer.

Utilizamos OpenFiler (un gestor de almacenamiento basado en código abierto), compatible con Xen, para crear un repositorio de almacenamiento iSCSI de 500 GBytes en el que situar los ficheros utilizados por las máquinas virtuales.

En ese momento, utilizamos la versión XenCenter 5.5 para Windows, el interfaz de gestión para XenServer, que nos permitió integrar el repositorio de almacenamiento creado anteriormente dentro del Directorio activo de Microsoft. De esta forma, se facilitan los procesos de autenticación para los administradores de XenServer.

Este proceso de introducción en el Directorio Activo, que se realiza sin complicaciones, es fundamental para poder acceder a las distintas herramientas de aprovisionamiento que permiten gestionar a los usuarios que tienen acceso a la consola XenServer.

Citrix ha modificado la forma en la que se llevan a cabo las copias de seguridad y las instantáneas (snapshots) de cada máquina virtual. Ahora, es posible hacer una instantánea desde la consola de gestión XenCenter además de poder hacerlo a través del interfaz en línea de comandos. Estas instantáneas, ideales para guardar versiones en el tiempo distintas de cada máquina virtual, son fáciles de crear, ya que tan sólo es necesario un nombre único para comenzar el proceso. Eso sí, el interfaz en línea de comandos (CLI) es capaz de manejar scripts para operaciones de copias de seguridad y restauración en el inventario de máquinas virtuales.

La llegada de la versión XenServer 5.5 también añade soporte para Red Hat Enterprise Linux 5.3, Novell SUSE Linux Enterprise Server 11 y Debian Lenny. No hay que olvidar que también permite manejar entornos Hyper-V de Microsoft.

Mientras tanto XenCenter también ofrece un modo de visualización que clasifica en carpetas los distintos eventos y procesos relacionados con los recursos, hosts físicos, máquinas virtuales, instantáneas o repositorios de almacenamiento. Este sistema jerárquico también permite añadir etiquetas a estos eventos para poder agruparlos de forma mucho más eficaz

Citrix XenServer ha introducido recientemente la posibilidad de migrar máquinas virtuales de un sistema físico a otro sin interrupción. Aunque es necesario que estos hosts sean del mismo fabricante y tengan las mismas características, esta opción se conforma como muy atractiva para las empresas.

Después de las pruebas llevadas a cabo, la conclusión es que la versión 5.5 de XenServer, junto con el kit Essentials, es ideal para aquellas pequeñas y medianas empresas con presupuestos justos pero que necesitan la virtualización para mantener sus negocios.

Fuente: eWeek Europe
Aportación: por Diana Díaz / Telemarketing.

martes, 4 de agosto de 2009

La recesión no justifica descuidar la fuerza de trabajo TI, Gartner

La mayoría de las 325 organizaciones con sede en Estados Unidos tomadas como muestra por Gartner para esta investigación asegura no que no planea aumentar su personal TI en los próximos meses.

Casi dos terceras partes de los CIO y responsables de TI entrevistados por la consultora indicaron que congelarían la contratación de personal hasta finales de febrero de 2010, mientras que uno de cada tres dijo esperar aumentar sus recursos humanos durante el mismo período de tiempo.

El problema, según la firma de investigación de mercado, es que, a pesar de necesitar contener los costos, los departamentos TI tienen también la necesidad de continuar actualizado las habilidades disponibles y añadir empleaos para ayudar a sacar adelante el negocio de las compañías.

“Considerando que el gasto asociado a la fuerza de trabajo consume la mayor parte de los presupuestos de TI, uno de los principales desafíos para los CIO y los gerentes de recursos humanos durante lo que queda de 2009 y el año 2010 será encontrar la manera de controlar los costes laborales sin perder, e, incluso, aumentando, el valor de la plantilla”, explica Lily Mok, vicepresidente de investigación de Gartner.

La realización de recortes adicionales, a pesar de la presión presupuestaria, puede ser, en muchos casos, un error, según la consultora, teniendo en cuenta que ciertas habilidades TI continúan teniendo una elevada demanda pese al desempleo provocado por la crisis. Entre tales habilidades se incluyen los conocimientos en tecnologías Oracle, SAP, Java EE, Microsoft .Net, SOA, Java y PeopleSoft.

Además, a los gestores de TI suele resultarles difícil encontrar profesionales para los puestos de arquitectos TI, administradores de bases de datos, directores de proyectos, programadores/analistas, arquitectos Internet/Web y programadores de aplicaciones Web.

Fuente: Info World
Aportación: Karina Elisea Gómez, Marketing Staff.

martes, 21 de julio de 2009

Inactividad cuesta cerca de $290 mil dólares a empresas

A nivel mundial, el costo promedio de ejecutar o implementar los planes de recuperación de desastres para cada incidente de inactividad es de $287,600 dólares, reveló Symantec en su quinta encuesta anual sobre Recuperación de Desastres (RD) de TI, realizada en 24 países.

En promedio, en Brasil y México, el costo por cada incidente de inactividad puede alcanzar los $297,500 dólares.

De acuerdo con el estudio, a nivel global el presupuesto anual promedio para iniciativas de recuperación de desastres es de $50 millones de dólares, lo cual incluye actividades como: respaldos, clustering, archivado, servidores de reserva, réplicas, cinta, servicios, desarrollo de planes de recuperación de desastre y costos externos en los centros de datos. Para el 2010, el 52% de los encuestados señaló que permanecerá igual el presupuesto de RD.


Este año, 35 por ciento de los encuestados informó que al menos una vez al año evalúan sus planes de recuperación de desastres. Entre las principales razones por las cuales las organizaciones no evalúan se encuentran:

· Falta de recursos en relación al tiempo del personal de TI (48%).
· Interrupciones a los empleados (44%).
· Presupuesto (44%).
· Interrupciones a los clientes (40%).

La mayoría de los 1,650 gerentes de TI reportó que la evaluación de la recuperación de desastres afecta cada vez más a los clientes y los ingresos frente a los años anteriores.

Por otro lado, la encuesta muestra que aunque los Objetivos de Tiempo de Recuperación (RTO) se han reducido a cuatro horas en 2009, las pruebas de recuperación de desastres y la virtualización siguen siendo grandes desafíos para las organizaciones.

Por ello, se recomienda a las organizaciones implementar métodos de prueba de sus planes de recuperación de desastres que se pueden ejecutar frecuentemente, sin interrumpir las operaciones empresariales. También aconseja implementar más herramientas de automatización e incluir a los responsables de la virtualización en el desarrollo de los planes de recuperación de desastres.

Escrito por: Daniel Vivanco el lunes, 20 de julio de 2009.
Aportación: Karina Elisea Gómez / Marketing Staff

viernes, 10 de julio de 2009

¡ Ahora si !, Ya para qué...

En tiempos recientes se ha hecho evidente en nuestro país un aspecto cultural que mucho tiene que ver con los niveles de rezago, problemática y lenta evolución de nuestra sociedad. Me refiero a la actitud pasivo-reactiva de nuestra gente, que en lugar de prevenir contingencias, reacciona ante las consecuencias. Este rasgo de actitud por desgracia permea hacia las áreas de TI, ocasionando pérdidas cuantiosas a las empresas, que no están preparadas para evitar o recuperarse rápidamente de un incidente.

Como dice el refrán, ahogado el niño a tapar el pozo. Nos invade la violencia y el narco, y “ahora si” el gobierno responde. La corrupción se infiltra cual cáncer a todos los niveles, y “ahora si” tratamos de contenerla. Llega la influenza y “ahora sí” exigimos mejorar nuestro débil sistema de salud. Y el colmo, se quema una guardería de IMSS, una de muchas que no cumplen los lineamientos de seguridad, y “ahora sí” la institución manda a inspeccionarlas todas. Y como pasa a muchos Mexicanos, después del infarto “ahora sí” cambio de vida.

Vivir al estilo “ahora sí” parece ser característico de nuestra sociedad, e incluso de varios países latinoamericanos. Esta actitud pasivo-reactiva es terreno fértil para que contingencias evitables causen grandes estragos a nuestra economía. Estragos cuya recuperación implica mucho más esfuerzo e inversión que haber implementado medidas a tiempo para prevenirlos

¿Y qué pasa en el mundo de las TI? Analicemos el entorno empresarial, con especial atención el segmento PYME. La plataforma de red y la información que circula por ella es como el sistema nervioso y circulatorio para el cuerpo humano. Si no se protege adecuadamente, una empresa puede sufrir daños considerables en su operación, algunos de ellos irrecuperables. Daños que pueden ocasionar pérdidas que van de lo moderado a lo catastrófico. Daños en su mayoría predecibles y evitables.

Para garantizar la estabilidad e integridad de la información de una empresa, se requiere romper con la cultura del “ahora sí”, e implementar medidas proactivas que detonen acciones de prevención oportunas, administradas disciplinadamente durante su ciclo de vida.

No es posible que un virus haga temblar a una empresa que no tiene una buena solución antivirus. No es posible que se pierdan años de información ante una falla en el sistema de almacenamiento y la ausencia de respaldo. No es aceptable un solo argumento de justificación, es simple negligencia y claro, después del incidente, “ahora sí” se habrá cambios.

Tecnología abunda en el mercado. Sistemas de protección contra intrusos, soluciones de respaldo, anti-X, software de monitoreo en tiempo real, de análisis de transacciones en base de datos, y muchas otras. Lo que no abunda, especialmente en el segmento PYME son directivos y administradores de TI que rompan con el “ahora sí”, y administren la plataforma bajo la premisa “en caso de”.

Vivir al “ahora sí” causa que muchas empresas reaccionen demasiado tarde. Pérdida de datos, fugas de información competitiva, intrusiones de hackers, epidemias de virus, malware, y muchos otros riesgos que se pasan por alto. Y es hasta que aparece una catástrofe cuando los administradores de TI o la alta dirección implementan medidas para “ahora sí” estar prevenidos. Pero, ya para qué…

Fuente: Milenio.com
Aportación: Diana Díaz - Telemarketing.

martes, 7 de julio de 2009

Seguridad en Redes

PCMCIA y CF Wireless Cards
Hay que considerar los siguientes aspectos en las tarjetas de los clientes:
1.- El chipset.
2.- El nivel de potencia de salida y la posibilidad de ajustarlo.
3.- Sensibilidad en la recepción.
4.- Disponibilidad de montaje de antena externa.
5.- Soporte para 802.1x u 802.11i
El chipset es importante ya que define la
flexibilidad y funcionalidad de cada tarjeta.
Es el chip con mayor cantidad de soporte en el mercado, es muy abierto y por
consiguiente es uno de los favoritos de los hackers.
El chipset cisco aironet no es mas que un Prism II con esteroides de ahí que
también sea muy utilizando en el wardrive.
El chipset de Hermes, desarrollado por Lucent, ofrece una buena recepción, tienen
un conector para antena exterior, el funcionamiento del chip no es muy abierto por lo
que no ofrece un buen desempeño, y en el caso de linux no tiene una buena
integración con el kernel como lo tienen los chips Prism.
El chipset de Symbol (Spectrum 24t), es uno de los chips utilizados como base para
otros fabricantes tal es el caso de Nortel (Emobolity 4121, 3Com AirConnect, Intel
PRO/Wireless, y las tarjetas Symbol Wireless, ya que el chip set es similar al de las
tarjetas Orinoco, es posible utilizar un driver de este bajo linux.
El chip de Atheros AR5000, es el más usado en los dispositivos 802.11a, Fué el
primero en combinar un "radio-on-a-chip" (RoC), y una interface para
computadora (baseband processor + MAC controller), Soporta el modo turbo
(72Mbs Teóricamente), el hardware se basa en la encriptación a 152 bits o
menos, el consumo de energía es bajo, y es el que se esta utilizando en las
tajetas 802.11a/b/g.
Las antenas y amplificadores son parte importante en el diseño. Debemos saber que
tenemos a nuestro alcance, revisando algo de teoria resaltamos 2 aspectos
importantes de estas, la ganancia (“gain” potencia de ampificación) y el beamwidth
(Este lo provee las formas de covertura de la antena).
La polarización de la Antena: Una onda de radio consistente en 2 campos: eléctrico y
magnético. Estos dos campos se disipan en planos perpendiculares. El campo
electromagnetico es la suma de los campos anteriores. El plano eléctrico paralelo a la antena es llamado plano E, y el plano perpendicular es llamado H, La posición del
plano-E referenciado a la superficie de la tierra, determina la polarización (horizontal cuando el plano E es paralelo, y vertical cuando es perpendicular a la tierra). La mayoria de los AP vienen con una polarización vertical ya que la mayoria de las tarjetas PCMCIA vienen en esta polarización.
La ganancia (gain), es estimado en dBi debido a que es referenciado a iradiaciones
isotropicas.
RF AmplificadoresLos amplificacores proveen una ganacia mayor debido a que inyectan potencia vía
una fuente externa. Los amplificadores hay de 2 tipos, los que amplifican de manera
unidireccional y los bidireccionales. Estos son usados para cubrir mayores distancias
(enlaces punto a punto) o en su defecto cuando la ubicación de APs externos tengan
múltiples obstáculos.
El problema del abuso de amplificadores da lugar a ataques de "Man-in-the-middle"
o ataques DoS, ya que ofrece mejores prestaciones a la capa 1 del modelo OSI.
RF Cables y Conectores
Estos determinan en gran parte la calidad de la señal, se estima cerca de un 1dB de
perdida por cada 100 pies, los conectores si son de los baratos pueden disminuir
entre 2 y 3 dB, ahora que si uno de estos componentes esta mal conectado o
dañado la perdida es mayor.
Politica de Seguridad para redes Inalámbricas
El primer elemento para iniciar una infraestructura de seguridad en las redes
inalámbricas es el diseño apropiado de politicas de seguridad.
Aspectos a considerar:
- Aceptación de dispositivos, Registro, Actualización y Monitoreo.
- Educación del usuario y Responsabilidad.
- Seguridad Física.
- Perímetro de Seguridad Física.
- Desarrollo de la Red y posicionamiento.
- Medidas de Seguridad.
- Monitoreo de la Red y Respuesta a Incidentes.
- Seguridad en la Red (Logica), Auditoria y estabilidad.
Existen varias tecnologías:
inalámbricas, pero la que se utiliza
más ampliamente es el 802.11b,
debido a que puede ser utilizado en
redes LAN, CAN, MAN.
La flexibilidad de la tecnológia a
permitido el rápido crecimiento de
este estandard, desde su
lanzamiento a tenido una gran
aceptación. Se espera que para el
año 2006 el número de equipos con
este estandard este arriba de los 40
millones de unidades.
¿ Porque las redes inalambricas son atractivas para
los hackers ?
1.- Son divertidas
! 2.- Da acceso anómino al atacante, lo que hace difícil el rastreo
! 3.- Debido a los actos ilícitos, el acceso inalámbrico ofrece una vía para preservar
la privacidad.
4.- La facilidad de husmear es la red.
5.- Siempre hay una "oportunidad de"
¿ De quién nos vamos a cuidar ?
- Los curiosos.
- Consumidores de ancho de banda
- Los verdaderos hackers.
Identificación de los Puntos de Penetración
- Encontrar los puntos físicos donde los atacantes puedan tener acceso.
- Detección de redes vecinas.
- Detección de tráfico anormal o frecuencias fuera de rango.
- Identificar según el diseño y configuración los problemas de seguridad y servicio.
Aspectos que no se toman en cuenta en redes
corportivas o escolares
! - Administrador de red sin experiencia en redes inalámbricas
- Equipos baratos sin capacidades de seguridad
! - La ausencia de un servicio de autenticación centralizado
! - La ausencia de IDS para redes inalámbricas
- La asencia de politicas de seguridad
- Auditoria nula en los equipos.
Captive Portal
Estos permiten dar acceso a un portal donde se autentifica el cliente, dando le acceso
a este equipo por un tiempo determinado o bajo ciertas condiciones.
Este esquema de seguridad no es muy utilizado debido a que debe de estar en el AP
para un mejor funcionamiento.
No todos los AP tienen soporte, los
OpenAP o soluciones opensource
ofrecen estas cualidades.
Puede ser atacado por DoS o ataques
de diccionario
El problema aun sigue ya que el control
de acceso al AP no existe
Llaves WEP
Por ser de las primeras propuestas de seguridad en equipos inalambricos, fue
rápidamente rota, el mecanismo ofrece una llave compartida entre el AP y el
equipo.
Tiene la desventaja de compartir previamente la llave.
Es facilmente obtener la llave con herramientas como:
- airsnort
- wepcrack
- dweputils
- wepattack
Estas herramientas necesitan una gran cantidad de tráfico para poder obterner
las llaves, asi que eso puede dar pie a largas horas de espera o bien usar
inyectores de paquetes para acelerar el proceso.
WPA
Que es el 802.1X?
El estandard 802.1X-2001 dice:
"Port-based network access control makes use of the physical access characteristics
of IEEE 802 LAN infrastructures in order to provide a means of authenticating and
authorizing devices attached to a LAN port that has point-to-point connection
characteristics, and of preventing access to that port in cases which the
authentication and authorization fails. A port in this context is a single point of
attachment to the LAN infrastructure." --- 802.1X-2001, page 1."
El problema de la tecnología es la novedad.
- ! Es necesario implementar mecanismos de seguridad al menos básicos para tener
cierta confidencialidad.
- No debemos perder de vista que el acceso wireless es solo eso, un acceso, ya
que muchas de las veces dejamos servicios de red activados (cableados) y de
! fácil ubicación.
-! La combinación de más de una tecnología podría ofrecer una mejor seguridad.
- ! La administración y monitoreo constante de la infraestructura es indispensable.
-! No olvidar que las cuerdas se rompen por la parte más delgada.
- La comodidad tiene su precio...

Aportación: Lic. Luis Ernesto Cortés-Account Manager.

miércoles, 1 de julio de 2009

Compañías mexicanas están rezagadas en continuidad y seguridad: Ernst - Young

Escrito por: Daniel Vivanco el jueves, 18 de junio de 2009

De acuerdo con la 11a. Encuesta Global de Seguridad de la Información de Ernst & Young, especialistas concluyen que las compañías en México presentan rezago en manejo de crisis, fuga de información y privacidad y protección de datos personales; factores clave para la continuidad de la operación y seguridad de los negocios.

La Encuesta señala que en México sólo una de cada tres empresas tiene en su estructura un plan de continuidad maduro que soportaría las operaciones en caso de crisis, haciendo simulacros a nivel negocio, no solo a niveles TI y de escritorio.

Por otra parte, el estudio destaca que las empresas mexicanas reportan prácticamente un 20% de rezago respecto al mundo en temas de política específica de manejo de datos, herramientas de encriptación, monitoreo de contenido y manejo de información sensible.

Para las organizaciones, el tema de fuga de información no es una asignatura prioritaria en el programa actual de seguridad de la información, señaló Ricardo Lira, gerente senior del área de Asesoría de TI área de Control de Ernst & Young.

“De acuerdo con nuestra encuesta únicamente el 57% de las empresas a nivel internacional cuenta con políticas robustas de seguridad de datos sensibles. En México esta proporción es del 44%. Si bien pareciera que la brecha entre México y el Mundo se acorta, es importante aclarar que el mundo a su vez reporta un rezago sensible de 43%”.


Diana Díaz.

viernes, 19 de junio de 2009

HP llama a enfrentar crisis con tecnología

HUGO ARCE BARRUETA ENVIADO
EL UNIVERSAL
JUEVES 18 DE JUNIO DE 2009
hugo.arce@eluniversal.com.mx

LAS VEGAS.— La crisis económica mundial tiene su lado positivo: vuelve a las empresas, sobre todo a las latinoamericanas, más innovadoras y creativas, aseguró Andy Ishewood, vicepresidente de servicios del área de software de Hewlett-Packard.
Esta creatividad consiste en reducir costos sin menoscabar la eficiencia del negocio ni afectar operaciones, “la respuesta a este problema está en la tecnología”, dijo Ishewood durante el HP Software Universe 2009, evento anual de la compañía que reúne a clientes, socios y canales de distribución.
Algunos conceptos ya conocidos para reducir el gasto en infraestructura (computadoras, servidores) son el outsourcing (contratación de terceros para realizar un servicio) y la virtualización (contar con las aplicaciones y el manejo del negocio desde internet). Las ganancias o pérdidas de la compañía, el plan comercial a uno o dos años, y el estado de los equipos, con el fin de tomar la mejor decisión y así ahorrar dinero en reparaciones posteriores o en el contrato de una agencia de consultoría; además de ahorrar mucho tiempo en tener toda esta información.

jueves, 18 de junio de 2009

Para afrontar la modernización

Escrito por: IDG News

Las organizaciones de TI serán incapaces de dar respuesta de forma rápida a las demandas cambiantes de negocio si no adoptan la modernización de la TI, es decir nuevas generaciones de tecnología, habilidades y expectativas.

Gartner define a la modernización de TI como la revisión completa de la cultura de Tecnologías de la Información, con el objetivo de desarrollar un portafolio de procesos que permita la creación de equipos que pueden proveer tecnología para acabar con el gap existente con las demandas del negocio.

“La modernización de TI efectiva requiere organización y pensamos que el concepto de una oficina de gestión de proyecto (Project Management Office, sus siglas en inglés PMO) o múltiples oficinas de este tipo es esencial para organizar y facilitar la moder-nización de TI”, explica Dale Vecchio, vicepresidente de investigación de Gartner.

Según Gartner, la creación de PMOs, junto con la inversión en procesos de gestión de portafolio y proyecto (Portfolio and Project Management, sus siglas en inglés PPM), pueden proveer el suficiente orden, definición y automatización del proceso para identificar y dar respuesta a un esperado incremento y proliferación de herramientas de TI. Las inversiones en un PMO y en PPM como una disciplina de gestión del trabajo puede ayudar al personal de TI para crear la visibilidad que los CIOs necesitan para controlar la red, la telefonía, el hardware servidor, almacenamiento y los sistemas de gestión de sistemas a la vez que permiten que las decisiones eficientes de modernización se dediquen a proyectos de TI estratégicos.

“Una PMO puede ofrecer un proceso de planificación común con herramientas, un proceso de generación de informes común y un proceso común de modernización de TI”, afirma Daniel Stang, analista de Gartner. “Esto se traduce en una estructura y soporte para evaluar, justificar, definir, planificar, controlar y llevar a la práctica los esfuerzos de modernización de TI. Además, anima a que los directivos participen en los esfuerzos de modernización de TI y en la solución de conflictos causados, entre otros, por la limitación de recursos”.

Gartner establece que crear una PMO fuera de la organización de TI promueve la independencia, elimina cualquier percepción de parcialidad y estimula la planificación de esfuerzos de modernización de TI, no sólo para el departamento de TI sino para toda la organización.

La modernización de TI permite, según Gartner, acabar con el gap entre las implementaciones tecnológicas pasadas y las demandas de TI del futuro. En este sentido, la consultora cree que el uso estratégico de la PMO debería garantizar que la modernización de TI se convierte en un importante habilitador del cambio empresarial.
Las organizaciones de TI serán incapaces de dar respuesta de forma rápida a las demandas cambiantes de negocio si no adoptan la modernización de la TI, es decir nuevas generaciones de tecnología, habilidades y expectativas.

Gartner define a la modernización de TI como la revisión completa de la cultura de Tecnologías de la Información, con el objetivo de desarrollar un portafolio de procesos que permita la creación de equipos que pueden proveer tecnología para acabar con el gap existente con las demandas del negocio.

“La modernización de TI efectiva requiere organización y pensamos que el concepto de una oficina de gestión de proyecto (Project Management Office, sus siglas en inglés PMO) o múltiples oficinas de este tipo es esencial para organizar y facilitar la moder-nización de TI”, explica Dale Vecchio, vicepresidente de investigación de Gartner.

Según Gartner, la creación de PMOs, junto con la inversión en procesos de gestión de portafolio y proyecto (Portfolio and Project Management, sus siglas en inglés PPM), pueden proveer el suficiente orden, definición y automatización del proceso para identificar y dar respuesta a un esperado incremento y proliferación de herramientas de TI. Las inversiones en un PMO y en PPM como una disciplina de gestión del trabajo puede ayudar al personal de TI para crear la visibilidad que los CIOs necesitan para controlar la red, la telefonía, el hardware servidor, almacenamiento y los sistemas de gestión de sistemas a la vez que permiten que las decisiones eficientes de modernización se dediquen a proyectos de TI estratégicos.

“Una PMO puede ofrecer un proceso de planificación común con herramientas, un proceso de generación de informes común y un proceso común de modernización de TI”, afirma Daniel Stang, analista de Gartner. “Esto se traduce en una estructura y soporte para evaluar, justificar, definir, planificar, controlar y llevar a la práctica los esfuerzos de modernización de TI. Además, anima a que los directivos participen en los esfuerzos de modernización de TI y en la solución de conflictos causados, entre otros, por la limitación de recursos”.

Gartner establece que crear una PMO fuera de la organización de TI promueve la independencia, elimina cualquier percepción de parcialidad y estimula la planificación de esfuerzos de modernización de TI, no sólo para el departamento de TI sino para toda la organización.

La modernización de TI permite, según Gartner, acabar con el gap entre las implementaciones tecnológicas pasadas y las demandas de TI del futuro. En este sentido, la consultora cree que el uso estratégico de la PMO debería garantizar que la modernización de TI se convierte en un importante habilitador del cambio empresarial.

lunes, 15 de junio de 2009

¿Cómo la virtualización acelera y potencializa tu productividad?

El pasado Jueves 11 de junio del 2009, realizamos una sesión de trabajo en la que se tocó el tema de ¿Cómo la virtualización acelera y potencializa tu productividad?, en la cual contamos con la participación de la Lic. Cecilia Cortés, gerente de ventas INTERALL, el Ing. Enrique Ruiz, proyectos especiales de TEAM Occidente, el Ing. Juan, gerente de sistemas de TEAM Occidente, el Lic. Ricardo Cázares de Citrix México y el equipo de INTERALL.

Agradecemos el entusiasmo y la disposición de todos los asistentes, esperamos que la temática, la presentación y el manejo del ambiente haya sido el que se esperaba.
Como parte de esta sesión compartimos con ustedes las siguientes fotografías del día del evento.




















jueves, 11 de junio de 2009

El fin de la recesión se acerca, afirma Gartner

Escrito por: Brad Reed el jueves, 04 de junio de 2009

Si bien la recesión aún no se supera, es momento que los responsables de TÏ corporativos empiezan a prepararse para el crecimiento del negocio y que las compañías tengan como objetivo completar sus planes al respecto antes del 1 de julio de este año, según la consultora Gartner. La consultora dirige este mensaje de manera muy especial a los países donde primero se manifestó la recesión, como Estados Unidos y Reino Unido.

Gartner reconoce que muchas naciones están sufriendo todavía el progresivo aumento de los niveles desempleo, problemas de impago de hipotecas y quiebras empresariales, además del resentimiento de la demanda por la falta de confianza de los consumidores en su futuro económico. Sin embargo, en los últimos meses, los analistas de la consultora vienen observando que las plantillas de muchas organizaciones están ya trabajando al máximo de su capacidad.

Ello, se debe, según Gartner, al aumento de la demanda, que casi con total seguridad continuará recuperándose en los próximos meses a medida que las propias empresas empiecen a detectar el aumento del consumo, la estabilización de la economía y una actitud más propicia a la concesión de créditos por parte del sector financiero.

Gartner cree que la fecha “límite” del 1 de julio es el momento en que deben estar listas aquellas organizaciones que confíen en un modesto crecimiento de sus negocios durante 2010. La preparación para la salida de la crisis pasa por la puesta en marcha de nuevos proyectos TI y su inclusión, junto con otros gastos relacionados, en los presupuestos para 2010, según la consultora, unos presupuestos que suelen elaborarse entre los meses de agosto y finales de 2009.

jueves, 28 de mayo de 2009

jueves, 30 de abril de 2009

Diario Oficial: Se Ordena la suspensión de labores en todo el territorio nacional del 1 al 5 de Mayo

ACUERDO mediante el cual se ordena la suspensión de labores en la Administración Pública Federal y en el sector productivo de todo el territorio nacional, durante el periodo que comprende del 1o. al 5 de mayo del presente año.
Al margen un sello con el Escudo Nacional, que dice: Estados Unidos Mexicanos.- Secretaría de Salud.
JOSE ANGEL CORDOVA VILLALOBOS, Secretario de Salud, con fundamento en los artículos 4., tercer párrafo,73, fracción XVI, bases 1a a 4a, y 133 de la Constitución Política de los Estados Unidos Mexicanos; 3o., fracciones III,XV y XVII, 4o., 6o., fracciones I y V, 7o., fracciones I y XIII, 13, apartado A, fracciones V, VII bis, IX y X, 15, 33, fracciónI, 133, fracción II, 134, fracción II, 135, 139, 140, 141, 143, 147, 148, 150, 152, 181 a 184, 402 y 404 de la Ley Generalde Salud; 39 de la Ley Orgánica de la Administración Pública Federal, y el Decreto por el que se ordenan diversas acciones en materia de salubridad general, para prevenir, controlar y combatir la existencia y transmisión del virus de influenza estacional epidémica, publicado en el Diario Oficial de la Federación el 25 de abril de 2009, y CONSIDERANDO que desde el inicio de la propagación de un nuevo tipo de virus de influenza en el territorio nacional, el GobiernoFederal, en coordinación con los gobiernos de las entidades federativas, ha implementado una serie de acciones dirigidas a controlar y combatir la existencia y transmisión del virus; que no obstante dichas medidas han permitido retardar la propagación del virus, la situación sigue siendo seria. La Organización Mundial de la Salud incrementó a fase 5 la alerta de pandemia, que se caracteriza por la propagación del virus de persona a persona, al menos en dos países de una región de dicha organización. Que una de las consecuencias del incremento referido en el considerando anterior, es que obliga a todos los paísesa maximizar las iniciativas para contener y retardar la propagación, a fin de evitar en lo posible una pandemia, y que el 25 de abril se publicó en el Diario Oficial de la Federación el Decreto por el que se ordenan diversasacciones en materia de salubridad general, para prevenir, controlar y combatir la existencia y transmisión del virus de influenza estacional epidémica, en el que el titular del Ejecutivo Federal ordenó que la Secretaría de Salud, con el propósito de combatir la epidemia y cuando lo estime pertinente, implemente de manera inmediata en las regiones afectadas de todo el territorio nacional, las demás acciones ejecutivas necesarias que determine la propia Secretaríade Salud; he tenido a bien expedir el siguiente ACUERDO:
Artículo Primero.- Se ordena la suspensión de labores en la Administración Pública Federal y en el sector productivo de todo el territorio nacional, durante el periodo que comprende del 1o. al 5 de mayo del presente año.
Artículo Segundo.- Se exceptúan de lo dispuesto en el artículo anterior, las labores que resulten indispensables para hacer frente de manera oportuna y eficaz a la situación de emergencia que vive el país.
Artículo Tercero.- Los titulares de las instituciones públicas federales deberán identificar las áreas que continuarán prestando los servicios que cotidianamente tienen a su cargo y que sean indispensables para afrontar la situación de emergencia, a fin de garantizar la suficiencia, oportunidad y continuidad en la prestación de servicios y provisión de bienes indispensables para la población.
Artículo Cuarto.- Las autoridades federales deberán garantizar la operación continua del transporte y, por lo tanto, seguirán funcionando los puertos, aeropuertos, carreteras y autopistas.
Artículo Quinto.- En el sector privado continuarán laborando las empresas, negocios, establecimientos mercantiles y todos aquéllos que resulten necesarios para hacer frente a la contingencia, de manera enunciativa, hospitales, clínicas, farmacias, laboratorios, servicios médicos, financieros, telecomunicaciones, y medios de información, servicioshoteleros y de restaurantes, siempre y cuando no correspondan a espacios cerrados con aglomeraciones, gasolineras, mercados, supermercados, misceláneas, servicios de transportes y distribución de gas.
Artículo Sexto.- Se exhorta a todas las entidades federativas y municipios a que se sumen a las medidas a que serefiere el presente Acuerdo.
Artículo Séptimo.- Las relaciones laborales se mantendrán y aplicarán conforme a lo previsto en los contratos individuales, colectivos, contratos ley o condiciones generales de trabajo que correspondan, durante el plazo a que se refiere el presente Acuerdo y al amparo de la Ley Federal del Trabajo y la Ley Federal de los Trabajadores al Serviciodel Estado, reglamentaria del Apartado B del Artículo 123 Constitucional.
TRANSITORIO
UNICO.- El presente Acuerdo entrará en vigor el primero de mayo de dos mil nueve y tendrá vigencia el cinco del mismo mes y mismo año.
DOF - Diario Oficial de la Federación Page 1 of 2http://www.dof.gob.mx/nota_detalle.php?codigo=5089064&fecha=30/04/2009&print... 30/04/2009
.Ciudad de México, Distrito Federal, a veintinueve de abril de dos mil nueve.- El Secretario de Salud, José AngelCórdova Villalobos.- Rúbrica.

martes, 7 de abril de 2009

Llega el nuevo navegador Microsoft Internet Explorer 8



BÁRBARA YUSTE MADRID
Publicado Martes, 17-03-09 a las 18:14
Microsoft va a presentó el miércoles 18 de marzo del 2009 su
nuevo navegador Internet Explorer 8.
El nuevo Internet Explorer 8 de Microsoft viene cargado de novedades. Entre ellas, destaca una más rápida navegación por la web, permitiendo al usuario además no tener que acceder a sus sitios favoritos cada vez que los consulta. Y esto es así gracias a una nueva función incorporada que se instalada en el ordenador de una manera sencilla. Se trata de los llamados aceleradores, a través de los que los internautas podrán realizar sus tareas de exploración diarias con mayor rapidez, ya que no tendrán que copiar y pegar información de una página a otra para ver una dirección en un mapa o traducir una palabra. Bastará con resaltar el texto de la página web deseada y pinchar sobre el icono azul de los aceleradores (éstos aparecen encima del texto seleccionado) para acceder al lugar elegido, traducir y definir palabras, enviar contenido por correo electrónico o hacer otras múltiples gestiones en la Red. Existe una amplia gama de aceleradores que se pueden elegir en
la página que Microsoft ha creado.
Los nuevos Web Slice Otra de las novedades que se incluyen en el nuevo navegador son los Web Slice. Se trata de una funcionalidad mediante la cual el usuario no tendrá que regresar al mismo sitio web una y otra vez para ver si hay actualizaciones de noticias o cualquier otro tipo de servicio por el que esté interesado, ya que éstas le llegarán a través de la nueva barra de favoritos, que le avisará en cada momento del contenido que se vaya generando en cada momento.
ABC.es apuesta por las nuevas tecnologías y desde nuestra home ya se pueden agregar los Web Slices de la última noticia, las últimas 10 noticias o las 10 más vistas del día. Puedes hacerlo con el I.E 8 pulsando (Alt+J) o desde el botón que lleva el propio navegador. Por último, facilitamos que te puedas integrarte nuestro acelerador para Internet Explorer 8 (buscador de noticias de la hemeroteca de abc.es).

lunes, 30 de marzo de 2009

“COMPENDIO LEGISLATIVO SOBRE SEGURIDAD INFORMÁTICA EN MÉXICO”


El uso de los medios electrónicos informáticos como la Internet y redes de comunicaciones es algo que se ha masificado en México en las diferentes áreas de Gobierno, Educación, Investigación, Salud, Comercio e Industria. En cualquier sociedad un pequeño porcentaje de la gente es maliciosa. Se estima que Internet tiene 40 millones de usuarios. Aún si el porcentaje de usuarios maliciosos es menor al 1% de esta sociedad, el número de usuarios maliciosos es tan grande que debería ser preocupante. La aparición y expansión de Internet conjuntamente con los sistemas informáticos, han hecho posible la realización de tareas impensables hasta hace unos años: transacciones bancarias, resolución de problemas complejos, control, docencia, comercio electrónico, etc. , es importante, y por demás urgente, contar con un esquema jurídico informático para implantar esquemas de seguridad robustos, para que la seguridad se concrete a mecanismos tecnológicos vulnerables en menor o mayor grado a los riesgos inherentes al uso de tecnología informática.
A pesar de los índices de crecimiento del uso de la computadora y de Internet, México enfrenta un problema social consistente en el llamado analfabetismo informático, del cual el Poder Legislativo y el gobierno en general no están exentos, por lo que muchos congresistas y funcionarios públicos no entienden el concepto y la estructura de Internet. En igual circunstancia se encuentra el poder Judicial, tanto los jueces como los magistrados tienen la misma carencia, por lo cual no se tiene conocimiento de la existencia de tesis ni jurisprudencia alguna que se refieran a los medios electrónicos en general y a Internet en especial. Como se mencionó es un Código Ético el que actualmente regula la conducta de los usuarios, mas sin embargo, existe en nuestro país una regulación administrativa sobre las conductas ilícitas relacionadas con la informática, pero que aún no contemplan en sí los delitos informáticos.
El desarrollo y aplicación de los avances informáticos llevan una inercia y una velocidad que los han hecho casi inalcanzables, en donde el sistema jurídico mantiene un proceso legislativo demasiado lento.
La seguridad informática es un conjunto de procesos, procedimientos, tareas y actividades implementados conjuntamente con elementos de computación y telecomunicaciones para controlar y proteger contra amenazas que pongan en riesgo los recursos informáticos. Se pueden pensar en tres momentos diferentes para realizarla:
Prevenir. Consiste en evitar que un ataque tenga éxito.
Detectar. que lo que se busque sea darse cuenta de que está recibiendo un ataque durante el mismo momento en el que se está presentado, en este caso lo que se desea es detectar el ataque para así tomar acciones al respecto.
Recuperar. se debe realizar es una revisión de lo que aconteció y tratar de poner en producción nuevamente todos los sistemas afectados, para lo cual se cuenta con dos alternativas:
-Parar el ataque (evitar que continúe) y entrar a reparar cualquier daño causado por el ataque.
-Continuar la operación normal e ir defendiéndose del ataque.
Los requerimientos básicos de seguridad son: disponibilidad, integridad, confidencialidad o privacidad y autenticidad.
Los delitos informáticos son "cualquier comportamiento criminal en que la computadora está involucrada como material, objeto o mero símbolo"1.
Las POLITÍCAS DE SEGURIDAD las podemos definir, como el conjunto de normas, reglas y principios que gobiernan una identidad u organismo, en donde cada regla define una acción, mecanismo y/o procedimiento con el objetivo de lograr la seguridad, orden y buen uso de los sistemas de información, especifican también las condiciones, derechos y obligaciones sobre el uso de los sistemas de cómputo.
Ventajas de las Políticas de Seguridad:
Permiten actuar a las autoridades en el caso de una violación de la seguridad.
 Permite tener procedimientos para eventualidades y para llevar acabo una auditoria
 Evitar la excusa llamada ignorancia.

LEGISLACIÓN INFORMÁTICA:
Según el Dr. Hector Fix Fierro, es el “conjunto de estudios e instrumentos derivados de la aplicación de la Informática al Derecho, o más precisamente, a los procesos de creación, aplicación y conocimiento del Derecho“.

____________________________
1-Carlos Sarzana

Julio Tellez Valdez

viernes, 13 de marzo de 2009

TRANSFORMAR UNA NECESIDAD COSTOSA EN UNA VENTAJA COMPETITIVA

La importancia de la Seguridad TI
Cada vez es mayor la percepción de la importancia de proteger la información en relación a sus tres componentes principales:
• Confidencialidad.
• Integridad.
• Disponibilidad.
La información es uno de los activos de mayor importancia para la organización, por lo que necesita estar bien protegida.
La interacción en línea donde la información está cada vez más expuesta a un mayor número de amenazas y vulnerabilidades incrementa la necesidad de una protección reforzada sobre la misma.
Al implementar un modelo de administración de Seguridad TI basada en las mejores prácticas existentes en el mercado, como la norma NBR ISO IEC 17799, su organización protege su información contra las amenazas y vulnerabilidades, asegurando la continuidad de sus negocios y minimizando la posibilidad de que una amenaza se concrete.La importancia de la Seguridad TI
Cada vez es mayor la percepción de la importancia de proteger la información en relación a sus tres componentes principales:
• Confidencialidad.
• Integridad.
• Disponibilidad.
La información es uno de los activos de mayor importancia para la organización, por lo que necesita estar bien protegida.
La interacción en línea donde la información está cada vez más expuesta a un mayor número de amenazas y vulnerabilidades incrementa la necesidad de una protección reforzada sobre la misma.
Al implementar un modelo de administración de Seguridad TI basada en las mejores prácticas existentes en el mercado, como la norma NBR ISO IEC 17799, su organización protege su información contra las amenazas y vulnerabilidades, asegurando la continuidad de sus negocios y minimizando la posibilidad de que una amenaza se concrete.

Contenido de PolíticasTomando como base el estándar ISO 17799, se desarrollarán políticas propietarias para su organización. Dichas políticas están divididas en los siguientes capítulos:
Clasificación de información y datos. Control de acceso a información y sistemas. Procesamiento de información y documentos. Adquiriendo y manteniendo software comercial. Asegurando hardware, periféricos y otros equipos Combatiendo el CyberCrimen Controlando E-Commerce Desarrollo y mantenimiento de software propietario. Consideraciones y premisas de seguridad. Tratamiento de seguridad con personal. Capacitación y conciencia. Cumplimiento de requerimientos legales y de políticas Detección y respuesta a incidentes. Planeación para continuidad del negocio.