TIPO DE CAMBIO DEL DÍA
BANCARIO
C. $3.093 V. $3.097
C. 3.427 V. 3.543
INICIAR SESIÓN

Correo:



iniciar Sesion



CAPECE EN IMÁGENES
CAPECE en imagenes ACTUALIDAD Y NOVEDADES DEL COMERCIO ELECTRÓNICO EN EL PERÚ
ver mas
INFORMACIÓN
SERVICIOS EN LINEA


 
ENCUESTA

Quiero capacitarme en:


Marketing Digital
Cloud computing
Desarrollo de Apps
Comercio electrnico
Community Manager

Actualidad TIC
Herramienta de la NSA puede afectar versiones más recientes de Windows
Fecha: 20 July 2017, 12:26 am

Las recientes incidencias de ransomware han sido atribuidas en parte a herramientas de hackeo de la NSA, en particular al exploit EternalBlue. En la mayoría de los casos, estas herramientas sólo podían ser utilizadas contra versiones obsoletas del sistema operativo Windows. Sin embargo, experto en seguridad informática ha logrado utilizar una versión modificada del exploit EternalSynergy contra versiones más recientes de Windows.

Como parte de su labor, la agencia nacional de seguridad de Estados Unidos (NSA) ha diseñado herramientas, o exploits, que aprovechan el debilitado protocolo SMB utilizado en algunas versiones del sistema operativo de Microsoft, ya que está expuesto a conexiones externas. Desde que el grupo autodenominado Shadow Brokers diera a conocer estas vulnerabilidades a la opinión pública, diversos grupos de delincuentes, y posiblemente organizaciones estatales, han realizado campañas de ransomware similares a WannaCry.

EternalSynergy es una de las herramientas de la NSA incluida en las revelaciones de The Shadow Brokers. Microsoft ha asegurado que EternalSynergy no funciona con las últimas versiones de Windows debido a mejoras realizadas en el kernel del sistema operativo. Sin embargo, según Worawit Wang, experto en seguridad informática, ha logrado adaptar la herramienta a versiones más recientes de Windows. La versión modificada de EternalSynergy ataca la misma vulnerabilidad de SMB, aunque utilizando una técnica diferente.

La nueva versión de EternalSynergy afecta una larga lista de versiones de Windows, incluyendo Windows 8.1. En Reddit, Wang asegura que, por ahora, los usuarios de Windows 10 están protegidos, pero que “esto podría cambiar”. Con ello, alrededor del 75% de todas las computadoras operadas con Windows en todo el mundo son vulnerables a la nueva versión de EternalSynergy.

Wang optó por distribuir la herramienta a todo interesado en descargarla vía GitHub, junto con una descripción de cómo utilizarla contra computadoras vulnerables. Por lo tanto, todo usuario que aún no haya implementado la actualización de seguridad MS 17010 de Microsoft es vulnerable a potenciales ataques.

Microsoft protegerá carpetas contra encriptación por ransomware en Windows 10

Las organizaciones asumen un abordaje colaborativo para proteger sus aplicaciones
Fecha: 19 July 2017, 11:34 pm

Veracode, líder global en seguridad de software recién adquirida por CA Technologies (NASDAQ: CA), anuncia los resultados de un estudio que analiza las relaciones entre los equipos de seguridad y el desarrollo de aplicaciones. El relevamiento, realizado por Enterprise Strategy Group (ESG), muestra que, a pesar de la convicción generalizada de que los equipos de seguridad y los de desarrollo tienen prioridades diferentes, iniciativas como la creación de ambientes DevOps y el foco en la innovación de productos mantienen a esos dos equipos alineados. De acuerdo con este estudio realizado en marzo de 2017 entre 400 profesionales de TI de Estados Unidos, Reino Unido y Alemania, un 58% de los entrevistados afirmaron que su organización está asumiendo un abordaje colaborativo para proteger sus aplicaciones.

Creciente necesidad de DevSecOps

El estudio buscó determinar los puntos de vista de los profesionales de seguridad y desarrollo al respecto de las tendencias de seguridad en aplicaciones y en desarrollo de software. Entre los entrevistados que afirmaron que su organización usa soluciones de seguridad en aplicaciones –como pruebas estáticas de seguridad–, un 43% relató que toman esa medida porque incluir la seguridad de aplicaciones en el proceso de desarrollo es más eficiente que corregir los sistemas de producción de forma reactiva.

Un hecho curioso es que el 45% de los entrevistados que forman parte de alguna organización que adoptó los principios y las buenas prácticas de DevOps señalan que estos procesos facilitan el trabajo del equipo de desarrollo de software y solo un 8% dijo que la inclusión de la seguridad de aplicaciones en el proceso de desarrollo desacelera el ambiente DevOps. Estos resultados no están alineados a la percepción común de que el foco en la seguridad desacelera el desarrollo de software.

“El software continúa siendo el principal impulsor de innovación y crecimiento económico. Eliminar la percepción de que existe una fricción entre los equipos de seguridad y de desarrollo es una prioridad para los profesionales de TI”, afirma Pete Chestna, director de alistamiento de desarrolladores de Veracode. “La percepción positiva de que es posible alinear a los equipos de seguridad y DevOps, como lo indica este estudio, muestra que los equipos de desarrollo pueden y deben considerar la seguridad como parte integrante del proceso”.

Estas conclusiones no podrían llegar en mejor momento para las empresas, ya que los ataques que se aprovechan de vulnerabilidades de software son cada vez más comunes y perjudiciales. El ataque del virus WannaCry es el ejemplo más reciente, que explota una vulnerabilidad de versiones más antiguas del sistema operativo Microsoft Windows. Aunque Microsoft haya lanzado una corrección para dicha vulnerabilidad, miles de organizaciones no la han instalado aún y fueron infectadas por el WannaCry.

El estudio también ha mostrado que casi un 70% de los entrevistados planean aumentar las inversiones en la seguridad de aplicaciones en los próximos 12 a 24 meses. Este aumento de inversiones también valida la importancia creciente de la seguridad de aplicaciones en el proceso de desarrollo.

Influencia de los procesos de DevOps en los requisitos tecnológicos

El estudio señala la necesidad de colocar la seguridad de aplicaciones como parte integrante del proceso de DevOps –la combinación conocida como DevSecOps– y que esta necesidad se reconozca y se acepte. Los resultados también destacan los requisitos tecnológicos necesarios para hacer del DevSecOps una realidad.

La complejidad e incapacidad de integrar la seguridad de aplicaciones al flujo de trabajo del DevOps son los mayores obstáculos señalados para la implementación eficaz de este modelo. En realidad, la capacidad de integrar herramientas de prueba estática de software y de ciclo de vida del software (42%), además de la capacidad de integrar herramientas de prueba dinámica de software y de ciclo de vida del software (34%) a los procesos de desarrollo de aplicaciones y DevOps, fueron las consideraciones que más se repitieron al evaluar productos y servicios de prueba estática y dinámica de seguridad de aplicaciones, respectivamente.

“Las metodologías contemporáneas de desarrollo de aplicaciones promueven la comunicación y la colaboración entre los equipos de desarrollo de aplicaciones, operaciones y seguridad, con el objetivo de identificar y corregir vulnerabilidades lo más rápido posible para aumentar la eficiencia e intensificar la seguridad”, evalúa Doug Cahill, Analista Senior de ESG. “La adopción cada vez mayor de procesos de DevOps, combinada a la voluntad de integrar y automatizar las pruebas de seguridad durante todo el ciclo de vida del software, indica un cambio para el DevSecOps, lo que significa considerar el código seguro como un elemento de creación de aplicaciones de calidad”.

Metodología
El estudio solicitado por Veracode y realizado por ESG, entrevistó a 400 profesionales de TI en los Estados Unidos, el Reino Unido y Alemania.

Ilustración (c) Sashkin vía Shutterstock

CA Technologies adquiere Veracode, proveedor de plataformas de seguridad DevOps basadas en SaaS

Construyendo los fundamentos para el 5G: C-RAN
Fecha: 19 July 2017, 2:28 pm

Los operadores móviles se están preparando para soportar tecnologías Gigabit LTE y 5G; para ello deben hacer que sus redes sean mucho más densas para ofrecer servicios de alto rendimiento y baja latencia. La densificación implica el despliegue de small cells separadas por poca distancia entre si a través de la red de acceso de radio (RAN), un panorama donde C-RAN (una arquitectura de habilitación para el RAN tanto para las small cells y macro sitios) establece la base para la tecnología 5G, y es hoy una tendencia importante en la industria inalámbrica.

C-RAN puede representar una RAN “en la nube” o “centralizada”, siendo esta segunda lo que los operadores están haciendo ahora. En una red macro celular tradicional, las unidades de radio están montadas en la parte superior de la torre con las antenas, con la fibra conectada típicamente a una unidad de banda base (BBU) situada en la base de la torre. La BBU es la que procesa toda la información por hora y vincula al usuario final con la red central, de esta forma cada cell site tiene su propia BBU situada en sitio en un cierto tipo de caseta o recinto.

“La C-RAN (centralizada) en sí misma puede servir a un gran número de cell sites y sustituye las BBUs tradicionales situadas en cada sitio. La tecnología C-RAN ofrece una alternativa mejor organizada y más eficiente, pues permite extraer las BBUs de cada sitio y las centraliza. La cantidad total de equipos BBU requeridos se reduce y la RAN centralizada abre el camino para el cambio principal eventual hacia la Cloud RAN, donde el procesamiento de la BBU se ha virtualizado. Se espera que esta versión de C-RAN sea un activador fundamental para 5G, pero antes de la virtualización viene la centralización, y ahí es donde la industria inalámbrica está ahora”, mencionó Wes Oxlee, Director of Business Development at CommScope Connectivity Solutions.

El futuro es fibra
Centralizando las BBUs en un concentrador C-RAN, una nueva capa en la red conocida como fronthaul, es introducida. Esta capa es el enlace entre el grupo de BBU y las unidades de radio remotas en el sitio de la celda o en la ubicación de las small cells. La fibra es la mejor opción para esto, ya que ofrece mayor ancho de banda, sin embargo, debido al costo que supone la colocación de una nueva red ⸻además con la finalidad de maximizar los recursos existentes⸻ algunos operadores de red están utilizando sus activos de fibra existentes, como la red FTTH (fiber-to-the-home), a través de una técnica llamada convergencia de redes de fibra.

“La convergencia de redes de fibra se refiere a la combinación de múltiples servicios dentro de una red de acceso único. En otras palabras, un solo medio se utiliza para entregar todas o múltiples formas de servicios de comunicación”, agregó Oxlee. “El proceso de convergencia de la red de fibra óptica está impulsado principalmente por el desarrollo de tecnologías habilitadoras, la demanda de los usuarios y las capacidades de los proveedores de servicios”.

Las redes FTTH tienen una extensa huella que es perfecta para soportar aplicaciones móviles de rápido crecimiento como el sistema de antena distribuida (DAS), backhaul de small cells y Wi-Fi. Además, operadores y proveedores regionales que históricamente comenzaron sus redes utilizando radios Wi-Fi para servir a sus usuarios, hoy también están migrando rápidamente para FTTH como un medio para aumentar su competitividad y proporcionar servicios diferenciados.

Al respecto Eduardo Jedruch, Presidente de la Asociación Fiber Broadband LATAM Chapter, puntualizó: “con todo este movimiento del mercado, en América Latina se están dando tasas impresionantes de crecimiento en nuevas instalaciones de FTTH para los próximos años, números que son capaces equiparar a mercados maduros como América del Norte y Europa. Para finales del año pasado se contaba ya con poco más de 4.5 millones de casas conectadas, un crecimiento del 25% en comparación con 2015; y con cerca de 23 millones de casas pasadas, 18% más que en 2015. Con estos números se muestra que la fibra está tomando un gran lugar en el mercado de Latinoamérica, lo que implica un desarrollo y adopción positiva en toda la región”.

C-RAN, el primer paso al 5G
Además de un menor gasto de capital, menores costos de mantenimiento y un mejor aprovechamiento del espacio, la C-RAN ofrece muchas ventajas. A menudo los operadores pueden aprovechar la infraestructura existente de la central o de los cell sites para crear los C-RAN centralizados, lo que implica que a la par de ahorrar en costos de hardware, este modelo puede generar ahorros significativos en términos de energía, refrigeración y costos de arrendamiento de sitios.

“El primer paso en el camino hacia 5G es la centralización del RAN. Los operadores están haciendo esto hoy mediante la creación de agrupaciones BBU centralizadas y el aprovechamiento de sus redes de fibra. El siguiente paso en el proceso será la virtualización, que ya se está desplegando en el núcleo de la red, pero finalmente llegará a la RAN también”, concluyó el Director of Business Development at CommScope Connectivity Solutions.

Ilustración (c) Mindscape Studio vía Shutterstock
¿Por qué debe integrar sus servicios TI con sus operaciones TI?
Fecha: 19 July 2017, 10:15 am

Los departamentos internos de una organización deben ser capaces de coordinar y cooperar fácilmente entre ellos para optimizar la productividad. Aunque este tipo de colaboración no siempre es fácil, fomenta estabilidad organizacional. Si bien, las organizaciones comprenden varios departamentos, el de TI es el motor que las impulsa. Es por ello que mantener un departamento de TI estable es un objetivo clave para cualquier organización.

La administración de TI se apoya en dos campos principales: servicios y operaciones. El objetivo fundamental de los servicios TI es diseñar, administrar, entregar y mejorar las tecnologías de la información usadas dentro de la organización, mientras que las operaciones de TI se encargan del aspecto administrativo, tales como el manejo de requerimientos de aplicaciones individuales, administrar el almacenamiento y redes y la resolución de problemas en los dispositivos de los usuarios.

La mayoría de las organizaciones dependen del departamento de TI para llevar a cabo sus operaciones diarias, con el soporte de administradores de sistemas y técnicos las 24 horas al día, los 7 días de la semana. Sin embargo, la manera en que un departamento de TI implementa sus servicios y operaciones puede ser tan importante para determinar la calidad de su soporte de TI. Entender la influencia de estos dos campos en el soporte al usuario final requiere dar una mirada más profunda a por qué los servicios de TI necesitan de una solución de help desk, mientras que las operaciones de TI demandan en primer lugar una solución de administración de escritorios.

Help desks: La clave para una administración efectiva de tickets

La mayoría de las organizaciones proporcionan a sus empleados una computadora portátil para desempeñar su trabajo. Esto significa que cuando un usuario tiene un problema con ese equipo, él mismo envía un ticket a su departamento de TI. Posteriormente un técnico resuelve el ticket un paso a la vez, escalando la solicitud según se requiera, hasta resolver el problema.

La generación de solicitudes puede no parecer alarmante en un inicio, pero a medida que las organizaciones crecen y los buzones de correo de los técnicos acumulan tickets, las solicitudes de soporte pueden convertirse en una preocupación. Es fácil imaginar lo complicado que puede ser manejar esos tickets sin la automatización proporcionada por un help desk. El uso de una solución de help desk puede ayudar al equipo de servicios de TI en la administración de problemas, cambios, incidentes y proyectos de TI, así como a un amplio conjunto de necesidades de administración de activos y automatización.

Soluciones para administración de escritorios: gestionar activos y resolver vulnerabilidades
Además de un help desk, la mayoría de las organizaciones también requieren de una solución de administración de escritorios para completar otras operaciones de TI. Por ejemplo, cuando las vulnerabilidades no se resuelven a tiempo, pueden ser la puerta de entrada para que los hackers transgredan sus sistemas empresariales y accedan a información confidencial. Esto puede evitarse con la administración adecuada de parches a través de plataformas heterogéneas. Aparte de esto, la instalación de software y la resolución de problemas en computadoras remotas también se gestionan con ayuda de una solución de administración de escritorios.

Es evidente que los servicios y las operaciones de TI desempeñan un papel fundamental en la administración de TI, pero solo cuando están realmente integradas aumenta la eficiencia general. El siguiente escenario permite esclarecer la manera en que esta integración optimiza la administración de TI.

El problema con los silos de TI

Un empleado envía una solicitud para un nuevo software:

1. La solicitud del usuario genera un ticket, mismo que es enviado a un técnico del help desk.

2. El técnico de help desk lee el ticket y comprende el requerimiento.

3. El técnico reenvía la solicitud a la persona indicada (en este caso, el administrador del sistema) para la gestión adecuada.

4. El administrador del sistema instala el software para el usuario.

5. Después de instalar exitosamente el software, el administrador del sistema actualiza el estado del ticket y lo envía de vuelta al técnico.

6. El técnico del help desk cierra el ticket.

Cada paso de este extenso flujo de trabajo se lleva a cabo de manera consecutiva, siempre y cuando el técnico del help desk y el administrador del sistema estén disponibles en todo momento. Pero si cualquiera de ellos no está completamente disponible, el proceso de instalación del software para el usuario final, así como el cierre del ticket, tomarán más tiempo.

Servicios y operaciones de TI: mejor juntos

Consideremos el mismo escenario en el que un empleado solicita un nuevo software. Sin embargo, en este caso, la organización ha integrado sus herramientas de administración de help desk y escritorios:

1. Una solicitud de usuario genera un ticket que es enviado a un técnico del help desk.

2. El técnico del help desk lee el ticket y comprende el requerimiento.

3. El técnico elige el software solicitado de una lista de paquetes de software disponibles y lo instala en la computadora del usuario.

4. Una vez terminada la instalación, el técnico cierra el ticket.

El técnico puede acceder fácilmente a una lista de paquetes de software disponibles ya que los servicios están integrados con sus operaciones de TI. Aquí el flujo de trabajo está optimizado de manera general, por lo que toma mucho menos tiempo procesar la solicitud del usuario final. Existen muchos otros escenarios en los cuales la necesidad de solucionar problemas de manera remota, aplicar parches en sistemas remotos, administrar dispositivos móviles, etc., hace que la integración sea crucial.

La integración de sus soluciones de administración de help desk y escritorios mejora la eficiencia de la administración de TI, razón por la cual la mayoría de las soluciones de administración líderes en el mercado ofrecen algún tipo de integración. La integración de sus soluciones de administración de help desk y escritorio le permitirá aumentar la eficiencia de sus operaciones y servicios de TI.

Por Andrés Mendoza, Consultor Técnico Senior de ManageEngine en Latinoamérica

Cuestionan la confiabilidad de los certificados HTTPS con validación extendida
Fecha: 19 July 2017, 7:56 am

El experto en seguridad Troy Hunt escribe en su blog que los certificados HTTPS con validación extendida, o EV, no cumplen su objetivo fundamental, que es aumentar la confianza de los usuarios en el sitio web que visitan. Un certificado HTTPS corriente representa únicamente una garantía de que el dominio con el que se establece la comunicación es el mismo para el cual se ha adquirido el certificado en cuestión. En ningún caso constituye una garantía respecto de los propietarios del dominio.

Por lo tanto, para ciberdelincuentes es totalmente factible comprar un dominio para una campaña de phishing, que haya sido cifrado y firmado con un certificado válido, adquirido mediante la organización Let’s Encrypt u otros actores comerciales. En tal caso, se cumplirá una de las dos funciones del cifrado de comunicaciones; es decir, que la comunicación con el servidor es segura, sin que terceros puedan saber qué datos están siendo intercambiados entre el cliente y el servidor.

Sin embargo, el segundo aspecto; es decir, la verificación de la identidad de los propietarios del dominio, no cuenta con garantía alguna. Es precisamente este punto que debería ser garantizado por los certificados EV. La obtención de estos certificados hace necesario un procedimiento en que el emisor del certificado verifica la identidad del propietario del dominio. Esta verificación consiste en acreditar la persona jurídica. Por tratarse de un proceso que difícilmente puede ser automatizado, las empresas que ofrecen certificados EV cobran una tarifa extra por la emisión de los mismos.

El resultado es que el navegador muestra, para el caso de un dominio HTTPS con EV, el nombre de la organización junto al tradicional candado. Según un estudio referido por Troy Hunt, ninguno de los 10 mayores sitios web del mundo utilizan certificados con EV. Por ejemplo, Amazon, la mayor tienda online del mundo, no los utiliza, ni tampoco Google, empresa que ha impulsado la utilización de HTTPS al punto de notificar, mediante su navegador Chrome, cuando un sitio web es seguro o inseguro, queriendo decir que utiliza o no utiliza HTTPS. A partir de octubre próximo, Chrome advertirá al usuario cada vez que este ingrese datos en un formulario inseguro, incluso aquellos de un sólo campo, como suscripciones a newsletters.

Finalmente, Hunt pone de relieve que EV puede crear confusión entre los usuarios de Internet debido a que el nombre de la empresa no siempre coincide con el nombre del dominio. Por ejemplo, para el caso de Diario TI, donde utilizamos HTTPS, el nombre que parecería en la barra de direcciones sería “MPA Publishing International Ltd.” y no “Diario TI”. Para muchos usuarios, esta inconsistencia podría causar sospechas, y en el caso de sitios dedicados al comercio electrónico, podría motivar el temido “abandono del carro de compras”.

Ilustración (c) Artem Samokhvalov vía Shutterstock

Antivirus hizo posible ejecutar código remoto mediante conexión HTTPS insegura

Microsoft anuncia conexión acelerada a HTTPS en futuras versiones de Edge

Líderes de negocios necesitan estar atentos a la  seguridad digital
Fecha: 19 July 2017, 6:39 am

El código malintencionado fue responsable del secuestro del acceso de los ordenadores infectados y llego a equipos de hospitales y centros de salud, empresas automotrices y de telecomunicaciones y varias agencias de gobierno alrededor del mundo.

Su propagación fue ágil y afectó organizaciones de todos los sectores y tamaños. Muchas de estas instituciones probablemente no tenían idea que podrían ser blancos de ataques cibernéticos, ya que hay un consenso engañoso de que existe un perfil preferido de los hackers.

Actualmente, todas las empresas tienen datos sensibles y deben garantizar su seguridad, con sistemas actualizados y constantemente monitoreados.

Con la concienciación pública sobre los incidentes que adquirió tal notoriedad, el tema se convirtió en parte de las discusiones de los directores de nivel C, miembros de Juntas Directivas y/o órganos deliberantes y otros foros de líderes de negocios.

Preguntas

– ¿Será que estamos realmente preparados para afrontar este tipo de asuntos en el ambiente corporativo?

– ¿Cuántos de nosotros tienen formación constante acerca de seguridad digital en las organizaciones que representamos?

– Si ocurre algo, ¿cuántos de nosotros tienen un plan estructurado para este tipo de crisis?

– ¿Cuántas empresas están preparadas para anticiparse a estos fenómenos y blindar sus datos y de sus clientes para evitar pérdidas financieras y de imagen?

– Hay muchas preguntas, pero las respuestas aún no están claras para la mayoría de ellas en gran parte de las organizaciones.

– Es necesario informar a las organizaciones sobre la importancia de desarrollar una cultura preventiva como única manera de realmente proteger los datos.

– En esa dirección, las tecnologías que usan análisis avanzada de datos (Advanced Data Analytics) pueden, por medio de un análisis predictivo de los datos, identificar comportamientos anómalos que pueden indicar la inminencia de un ataque cibernético.

– Aparte de su utilización para la generación de contactos, visualización de las organizaciones y diálogo con las partes interesadas, la Internet también es la herramienta utilizada para este tipo de acción criminosa.

– La llamada Web profunda es un universo oscuro que requiere supervisión constante.

– Del punto de vista proactivo, la aplicación de conceptos de inteligencia artificial para el análisis predictivo no sólo ofrece la posibilidad de prever algún evento, pero también el conocimiento de nuevas técnicas, tácticas y herramientas utilizadas para realizar los ataques malintencionados.

Agilidad

– Una mayor atención al tema permite que el liderazgo de las organizaciones actúen con más agilidad y consigan una buena base de conocimiento para tomar decisiones asertivas en casos como el de WannaCry.

– La seguridad de la información ya no es una cuestión del departamento de TI,  sino también una variable importante que es parte de los negocios.

– Los gastos en seguridad digital  aumentarán 8,7% al año hasta 2020, alcanzando un monto de US$ 105 mil millones, según la proyección de IDC.

– Sin embargo, esta inversión representa sólo un componente en la ecuación para resolver este problema, puesto que los mecanismos tradicionales de seguridad ya parecen no funcionar más en este nuevo entorno de increíble sofisticación y amplitud de los ataques.

Micro-segmentación

Un enfoque eficaz en este sentido es la micro-segmentación de identidades y entornos que, en un caso como el de WannaCry, por ejemplo, podría haber mitigado los efectos y reducido la infección a unas pocas máquinas, impidiendo los daños en la red y la inviabilidad momentánea de las operaciones, como ocurrió en algunos casos.

La evolución de la tecnología nos ha llevado a una realidad en la que ninguna protección contra los ataques cibernéticos es absolutamente infalible.

La seguridad cibernética requiere inversión constante para seguir el grado de sofisticación de los ciberdelincuentes y, aún así, ninguna organización puede presumir que está inmune a ellos.

Entonces es esencial elaborar una estrategia para reducir la superficie de los ataques, mitigando sus consecuencias para la organización, sus accionistas y partes interesadas principales.

Lejos de ser un problema limitado al sector privado, el último ataque WannaCry demostró el grado de vulnerabilidad a que están sujetos los ciudadanos debido a la posibilidad de interrupción de servicios esenciales en los cuales la tecnología desempeña un papel clave, como en los centros de salud y medios de transporte.

Este reciente ataque en el mundo de la delincuencia cibernética deja claro que la prevención es la mejor manera para estar preparados para la próxima ola de ataques.

Ni siquiera sabemos cuándo o dónde puede ocurrir.

Por Mauricio Cataneo, Director-Presidente de Unisys Brasil

Cinco pasos para introducir la Inteligencia Artificial de forma ética en las empresas
Fecha: 18 July 2017, 1:36 am

Sage, proveedor global de sistemas de contabilidad en la Nube, ha hecho un llamamiento para que la comunidad tecnológica internacional asuma su responsabilidad en el desarrollo ético de la Inteligencia Artificial (IA) en el ámbito empresarial.

Con la publicación de “Código Ético: Desarrollo de la Inteligencia Artificial para empresas basado en cinco principios básicos”, Sage presenta las recomendaciones a tener en cuenta en la Industria 4.0 (también llamada cuarta revolución industrial).

Este código de conducta ha sido desarrollado por Sage durante la construcción del propio programa de aprendizaje automático de IA de la compañía, diseñado específicamente para reducir los procesos de administración financiera de los empresarios de cualquier envergadura, desde start ups hasta grandes empresas.

Desarrollar chatbots y programas de Inteligencia Artificial que ayuden a nuestros clientes es la parte sencilla de nuestro trabajo, lo difícil es gestionar todas las dudas que esta disrupción tecnológica genera, pues son muy amplias y diversas. Por este motivo, desarrollamos nuestra IA dentro de un conjunto de guías que funcionan como principios básicos y contribuyen a garantizar que nuestros productos son seguros y éticos.
     
El “Código ético” ha sido diseñado para proteger al usuario y asegurar que los gigantes de la tecnología, entre los que se encuentra Sage, están implementando la Inteligencia Artificial de forma segura. Además, queremos actuar como líderes y hacer un llamamiento a otras empresas (pymes, grandes compañías o hackers) para pedirles que tengan en cuenta estos principios a la hora de desarrollar sus propios sistemas de Inteligencia Artificial.

“Código Ético: Desarrollo de la Inteligencia Artificial para empresas basado en cinco principios básicos”

1. La Inteligencia Artificial debe reflejar la diversidad de los usuarios a los que sirve.
Tanto la industria como la comunidad tecnológica deben desarrollar mecanismos eficaces para filtrar los sesgos y el sentimiento negativo de los datos recogidos por la Inteligencia Artificial. Esto servirá para garantizar que la IA no perpetúa estereotipos erróneos.

2. La Inteligencia Artificial debe rendir cuentas, igual que lo hacen los usuarios.
Los usuarios construyen una relación de confianza con la IA tras varias interacciones significativas. Después de adquirir confianza, llega la responsabilidad y la IA tiene que responsabilizarse de sus acciones y decisiones, igual que lo hacen los seres humanos. Si no aceptamos este tipo de comportamientos de otros profesionales, ¿por qué deberíamos hacer una excepción con la tecnología?

3. Recompensa a la Inteligencia Artificial por sus progresos.
Cualquier sistema de IA que base su aprendizaje en malos ejemplos podría llegar a ser socialmente inapropiado. En la actualidad, que los sistemas de IA amplíen su campo de escucha y de recogida de datos es la solución para que progresen en su aprendizaje.
Uno de los retos es el desarrollo de un mecanismo de recompensa. Las medidas de aprendizaje y refuerzo deben construirse no sólo basándose en lo que la IA o los robots hacen para lograr un resultado, sino en cómo se alinean con los valores humanos para lograr ese resultado concreto.

4. La Inteligencia Artificial debe garantizar la igualdad de condiciones.
Las tecnologías sociales, como los asistentes de voz o los robots, ofrecen soluciones de rápido acceso, especialmente indicadas para personas discapacitadas por problemas de visión, dislexia o movilidad reducida. La comunidad tecnológica empresarial necesita acelerar el desarrollo de nuevas tecnologías para garantizar la igualdad de condiciones y ampliar el número de talentos disponibles.

5. La Inteligencia Artificial sustituirá puestos de trabajo, pero también creará nuevos empleos.
Aparecerán nuevas oportunidades creadas por la robotización de tareas y es importante que los seres humanos estén preparados para ello. Hay que tener en cuenta que, si la IA y la empresa trabajan juntos, conseguirán que la plantilla se centre en lo verdaderamente importante: construir relaciones y cuidar de los clientes.

Por Kriti Sharma, Vicepresidenta de Bots e Inteligencia Artificial de Sage

Mainframe de IBM encripta 12 mil millones de transacciones por día
Fecha: 17 July 2017, 11:41 pm

IBM (NYSE: IBM) presentó el 17 de julio IBM Z, la próxima generación del sistema transaccional más potente del mundo, capaz de ejecutar más de 12 mil millones de transacciones encriptadas por día. El nuevo sistema también introduce un motor de cifrado revolucionario, que permite por primera vez encriptar todos los datos asociados con cualquier aplicación, servicio de nube o base de datos, en todo momento.

Las nuevas capacidades de cifrado de datos de IBM Z están diseñadas para abordar la epidemia global de violaciones de datos, un factor importante en el impacto que tendrá el cibercrimen en USD 8 trillones en la economía global hacia 2022. De los más de 9 mil millones de registros de datos robados o perdidos desde 2013, solo el 4% estaba cifrado, es decir que la gran mayoría de dichos datos eran vulnerables a las organizaciones cibercriminales y a actores internos y externos que buscan abusar del acceso a información sensible.

En el reposicionamiento más significativo de la tecnología mainframe en más de una década, cuando la plataforma adoptó Linux y el software de fuente abierta, ahora IBM Z expande sustancialmente el paraguas criptográfico protector de la tecnología de cifrado y protección de claves líder de IBM. La capacidad criptográfica avanzada del sistema ahora se extiende a toda la información, las redes, los dispositivos externos o aplicaciones enteras– como el servicio IBM Cloud Blockchain– sin cambios en el software y sin impacto en el desempeño general del sistema.

“Existe una epidemia global de robo de información. La gran mayoría de los datos robados o filtrados hoy se encuentran al descubierto y son fáciles de usar porque el cifrado ha sido algo muy difícil y costoso de implementar a escala,” comentó Ross Mauri, Gerente General de IBM Z. “Hemos creado un motor de protección de datos para la era de la nube que creemos que tendrá un impacto significativo e inmediato en la seguridad de información global.”

Tecnología revolucionaria: Primer cifrado omnipresente de la industria para la era de la nube
Un estudio reciente de IBM reveló que el uso amplio del cifrado es uno de los principales factores para reducir el costo de una violación de datos, lo cual genera una reducción de USD 16 en el costo por registro perdido o robado. Para ponerlo en contexto, el Índice de Inteligencia de Amenazas IBM X-Force informó que más de 4 mil millones de registros se filtraron en 2016 (un aumento del 556% comparado con 2015).

Sin embargo, el cifrado se encuentra mayormente ausente en los centros de cómputo corporativos y de nube porque las soluciones actuales para el cifrado de datos en el entorno x86 reducen sustancialmente el desempeño (y por lo tanto la experiencia del usuario), y son demasiado complejas y costosas de administrar para el cumplimiento regulatorio. Como consecuencia, solo el 2% de los datos corporativos hoy se encuentra encriptado, mientras que más del 80% de los datos de dispositivos móviles está encriptado.

El cifrado integral de IBM Z ,en lo que se refiere a la protección de datos, fue articulado por los ejecutivos de seguridad informática y expertos en seguridad de datos así como los más de 150 clientes de IBM del mundo que participaron y dieron su feedback para el diseño del sistema IBM Z durante tres años.

Como resultado de esta colaboración, IBM Z trae importantes avances en tecnología criptográfica, al aprovechar una plataforma de cifrado comprobada que asegura los sistemas de banca, salud, gobierno y minoristas del mundo. Las innovaciones del cifrado integral de IBM Z incluyen:

Cifrado de todos los datos, todo el tiempo – IBM Z por primera vez hace posible que las organizaciones encripten todos los datos asociados con una aplicación, servicio de nube o base de datos completa en operación o en reposo, con un solo clic. La práctica estándar hoy es encriptar pequeñas porciones de datos por vez, e invertir un trabajo considerable para seleccionar y administrar campos individuales. Este cifrado a granel a escala de nube es posible gracias a un aumento masivo de 7 veces en el desempeño criptográfico comparado con la generación anterior, z13, impulsado por un aumento de 4 veces en silicio dedicado a algoritmos criptográficos. Esto es 18 veces más veloz que los sistemas x86 (que hoy solo se enfocan en secciones limitadas de datos) y a solo 5% del costo de las soluciones basadas en x86.

Claves a prueba de intrusión. Una de las principales preocupaciones para las organizaciones es la protección de claves de cifrado. En grandes organizaciones, los hackers suelen hacer blanco en las claves de cifrado, que quedan expuestas rutinariamente en la memoria a medida que se usan. Solo IBM Z puede proteger millones de claves (así como el proceso de acceder, generar y reciclar las claves) en un hardware “con respuesta a manipulación” que hace que las claves se auto-destruyan ante cualquier signo de intrusión y luego se reconstituyan en forma segura. El sistema de administración de claves de IBM Z está diseñado para cumplir con los estándares Federal Information Processing Standards (FIPS) Nivel 4, mientras que la norma de alta seguridad en la industria es de Nivel 2. Esta capacidad de IBM Z puede extenderse más allá del mainframe a otros dispositivos, como sistemas de almacenamiento y servidores en la nube. Además, IBM Secure Service Container protege contra amenazas desde adentro estilo Snowden de contratistas y usuarios privilegiados, proporciona cifrado automático de datos y código en operación y en reposo, y resistencia a alteración durante instalación y tiempo de ejecución.

Encriptación de APIs. Las tecnologías IBM z/OS Connect facilitan a los desarrolladores de nube descubrir e invocar cualquier aplicación o dato de IBM Z de un servicio de nube o a los desarrolladores de IBM Z invocar cualquier servicio de nube. IBM Z ahora permite a las organizaciones encriptar estas API – el pegamento digital que enlaza servicios, aplicaciones y sistemas – hasta 3 veces más rápido que cualquier alternativa basada en x86.

“El cifrado integral incorporado y diseñado para extenderse más allá del nuevo IBM Z realmente hace que este sea el primer sistema con una solución abarcadora para abordar las amenazas de seguridad y violaciones de datos que venimos viendo en los últimos 24 meses,” comentó Peter Rutten, analista del IDC Servers and Compute Platforms Group.

Diseñado para los nuevos y estrictos reglamentos de cumplimiento de seguridad de datos

IBM Z también está diseñado para ayudar a los clientes a elevar la confianza de los consumidores y cumplir con nuevas normas como el Reglamento General de Protección de Datos de la Unión Europea (GDPR) que aumentará los requisitos de cumplimiento de datos para organizaciones que operan en Europa, a partir del año próximo. Este reglamento exigirá a las organizaciones informar las violaciones de datos dentro de las 72 horas o las someterá a multas de hasta el 4% de los ingresos anuales, a menos que puedan demostrar que los datos estaban cifrados y las claves estaban protegidas. Al nivel de la Reserva Federal de los EE.UU., el Federal Financial Institutions Examination Council (FFIEC), que incluye los cinco reguladores bancarios, proporciona directivas sobre el uso del cifrado en el sector de servicios financieros. Singapur y Hong Kong han publicado directivas similares. Más recientemente, el Departamento de Servicios Financieros del Estado de Nueva York publicó requisitos de cifrado en el documento Cybersecurity Requirements for Financial Services Companies.

IBM Z, profundamente integrado con software IBM Security, fue diseñado para automatizar y optimizar sustancialmente los procesos de seguridad y cumplimiento. Por ejemplo, se espera que los auditores hoy inspeccionen y validen manualmente la seguridad de bases de datos, aplicaciones y sistemas. Las organizaciones ahora pueden tomar datos y aplicaciones fuera del alcance de cumplimiento automatizando la verificación de que los datos se encuentran cifrados y que las claves son seguras. Esto reducirá sustancialmente la complejidad y el costo creciente de las actividades cumplimiento para los auditores. El sistema también proporciona una pista de auditoría que muestra si accedieron a los datos personas con los permisos internos y cuándo lo hicieron.

Creando el servicio Blockchain más seguro
En un ejemplo de IBM Z como motor de cifrado para servicios de nube, IBM anunció hoy la apertura de centros de cómputo IBM Cloud Blockchain en Nueva York, Londres, Frankfurt, San Pablo, Tokio y Toronto. Estos centros se encuentran asegurados utilizando la tecnología criptográfica líder de industria IBM Z, a medida que la compañía amplía la red de negocios de alta seguridad a las organizaciones de todo el mundo.

AngelHack, en alianza con IBM, lanzó hoy “Unchain the Frame,” un hackathon global virtual con más de USD50.000 USD en premios. Los desarrolladores de todo el mundo están invitados a mostrar sus habilidades y creatividad utilizando tecnologías como blockchain, aplicaciones nativas de fuente abierta, API de la industria financiera y aprendizaje de máquina.

Nuevo: Precios predecibles y transparentes de contenedores para microservicios

IBM también anunció tres modelos innovadores de nuevos precios de Contenedores para IBM Z, por lo cual los clientes acceden a precios de software muy simplificados que combinan una implementación flexible con economía competitiva versus nubes públicas y entornos x86 on-premises

• Nuevos microservicios y aplicaciones para el despliegue de nuevos microservicios y aplicaciones que permiten a los clientes maximizar el valor de los sistemas empresariales on-premises en forma segura y en tiempo real. Los clientes ahora pueden co-ubicar aplicaciones para optimizar calidades de servicio con precios competitivos en plataformas de nube pública y on-premises.

• Desarrollo y prueba de aplicaciones con la libertad de triplicar la capacidad de todos los entornos de desarrollo en z/OS para dar soporte a las últimas herramientas y procesos DevOps. Los clientes pueden triplicar la capacidad sin un aumento en el cargo de licencia mensual.

• Precios para sistemas de pagos según el volumen de pagos que un banco está procesando, no la capacidad disponible. Esto da a los clientes una flexibilidad mucho mayor para innovar en forma accesible en un entorno competitivo, particularmente en el segmento de Pago Instantáneo de rápido crecimiento.

Estas opciones de Precios de Container que sientan precedente están diseñadas para dar a los clientes la previsibilidad que requieren para sus negocios. Los modelos de precios son escalables tanto dentro como entre particiones lógicas (LPAR), y ofrecen capacidades de medición, limitación y facturación muy mejoradas. Se planea que el Precio de Container para IBM Z esté disponible a fin de 2017 y habilitado en z/OS V2.2 y z/OS V2.3.

El sistema transaccional más potente para la era de la nube

IBM Z se construye sobre las capacidades del motor transaccional más potente del mundo en el centro del comercio global hoy, con soporte:

• 87% de todas las transacciones de tarjetas de crédito, y pagos por casi USD 8 billones por año.
• 4 mil millones de vuelos de pasajeros por año.
• Más de 30 mil millones de transacciones por día, más que el número de búsquedas de Google diarias.
• 68% de las cargas de trabajo de producción del mundo, a solo el 6% del costo total de TI.

Los bancos y otras entidades del sector financiero procesan miles de transacciones por segundo para mantener los sistemas financieros del mundo en funcionamiento. El mainframe es más crítico que nunca para el manejo confiable de altos volúmenes de datos transaccionales.

En la actualidad, 92 de los 100 bancos principales del mundo confían en el mainframe de IBM por su capacidad inigualable de procesar en forma eficiente grandes volúmenes de transacciones. Para ayudar a las organizaciones de servicios financieros a competir más eficazmente en la era de la nube, ahora es posible proteger del fraude y el cibercrimen enormes cantidades de datos sensibles originados en transacciones, analizarlos y monetizarlos utilizando IBM Z, sin interrumpir las operaciones diarias ni aumentar los costos. Para los bancos, esto significa cifrado en un clic, incluso mientras las aplicaciones están ejecutándose, y la capacidad de migrar los datos del estado no encriptado al estado encriptado, sin impactar el desempeño.

IBM Z, la catorceava generación de la tecnología mainframe líder de IBM, tiene el microprocesador más veloz, corriendo a 5.2 GHz y una nueva estructura de sistema escalable que entrega un aumento de capacidad del 35% para cargas de trabajo tradicionales y un aumento de capacidad del 35% para cargas de trabajo Linux en comparación con la generación anterior de IBM z13. El sistema puede dar soporte a:

• Más de 12 mil millones de transacciones encriptadas por día en un único sistema
• La instancia de MongoDB más grande del mundo con 2,5 veces más velocidad de desempeño NodeJS que las plataformas x86
• 2 millones de Docker Containers
• 1000 bases de datos NoSQL concurrentes

Otras nuevas capacidades anunciadas hoy incluyen:

• Tres veces más memoria que el sistema z13 para ofrecer tiempos de respuesta más rápidos, mayor productividad y desempeño acelerado de analítica. Con 32 TB de memoria, IBM Z ofrece una de las huellas de memoria más grandes de la industria.
• El triple de velocidad I/O, y procesamiento acelerado de transacciones comparado con el z13 para un mayor crecimiento en datos, mayor productividad de transacciones y menor tiempo de respuesta.
• La capacidad de ejecutar cargas de trabajo de Java 50% más rápido que las alternativas x86.
• Tiempo de respuesta líder en Storage Area Network, con zHyperLink, lo cual redunda en una latencia 10 veces menor, comparada con el z13 y una reducción del tiempo de respuesta de aplicaciones a la mitad, lo cual permite a las empresas hacer mucho más trabajo como analítica en tiempo real o interactuar con dispositivos Internet of Things (IoT) y aplicaciones de nube dentro de la misma transacción, sin cambiar ni una línea de código de aplicación.

Como parte del anuncio de hoy, IBM también anticipó nuevo software z/OS que proporciona capacidades fundacionales para entrega de servicio de nube privada, permitiendo una transformación de un centro de costo de TI a un proveedor de servicio generador de valor. Cuando estén disponibles, estas capacidades incluirán el apoyo de extensiones de flujo de trabajo para IBM Cloud Provisioning and Management for z/OS y soporte de infraestructura analítica SMF.

IBM Global Financing puede ayudar a clientes con calificación crediticia a adquirir el nuevo IBM Z, reducir su costo total de propiedad y acelerar el retorno sobre la inversión. Las ofertas de IBM Global Financing para soluciones mainframe de IBM están disponibles a través de IBM y sus Asociados de Negocio, con términos y condiciones flexibles que pueden adaptarse para alinear los costos con los beneficios de los proyectos u otras necesidades de los clientes.

La tecnología será una extensión de las personas antes de 2030, según un estudio de Dell Technologies
Fecha: 14 July 2017, 11:53 am

En 2030 todas las organizaciones serán tecnológicas y, como tales, las empresas deben empezar a pensar ya cómo proteger su infraestructura y su mano de obra, según un informe publicado por Dell Technologies. El estudio, dirigido por el Institute for the Future (IFTF) junto con 20 expertos en tecnología, académicos y expertos en negocios de todo el mundo, analiza cómo las tecnologías emergentes, la inteligencia artificial, la robótica, la realidad virtual, la realidad aumentada y el cloud, transformaran nuestras vidas y cómo trabajaremos durante la próxima década. El informe, titulado “La próxima era de las relaciones hombre-máquina” también ofrece una visión sobre cómo los usuarios y las empresas pueden prepararse para una sociedad en constante cambio.

El estudio pronostica que las tecnologías emergentes, respaldadas por los grandes avances en software, big data y el poder de procesamiento, cambiarán nuestras vidas. La sociedad entrará en una nueva era en su relación con las máquinas, que se caracterizará por:

· Más eficiencia y posibilidades que nunca, ayudando a los humanos a superar sus limitaciones
· Los humanos como “conductores digitales” en los que la tecnología funcionará como una extensión de las personas, ayudando a dirigir y gestionar mejor las actividades diarias
· Reclutamiento de trabajadores mediante el uso de tecnologías avanzadas de establecimiento de contactos basadas en datos, las organizaciones podrán encontrar y emplear talentos de todo el mundo
· La gente aprenderá “sobre la marcha”, ya que el ritmo del cambio será tan rápido que se crearán nuevas industrias y se requerirán nuevas habilidades para sobrevivir

Dell Technologies encargó el estudio para ayudar a las compañías a navegar en un mundo incierto y a prepararse para el futuro. Hoy en día, la disrupción digital está redibujando todo tipo de industrias. Por primera vez en la historia moderna, los líderes globales no pueden predecir cómo van a evolucionar sus negocios. De acuerdo con el Índice de Transformación Digital de Dell, el 52 por ciento de los altos ejecutivos de 16 países han experimentado una disrupción significativa en sus sectores como resultado de las tecnologías digitales. Y casi una de cada dos empresas cree que su compañía se puede volver obsoleta en los próximos tres a cinco años.

“Nunca antes la industria había experimentado tal disrupción. El ritmo del cambio es muy real, y ahora estamos ante un escenario de hacer o morir. Para salir adelante en la era de las relaciones hombre-máquina, cada negocio tendrá que ser un negocio digital, con el software como eje principal”, señala Jeremy Burton, director de Marketing de Dell. “Pero las organizaciones tendrán que avanzar rápido, preparar su infraestructura y capacitar su fuerza de trabajo para afrontar este cambio”.

“Hemos sido testigos de dos perspectivas extremas sobre las máquinas y el futuro: la ansiedad causada por el desempleo tecnológico o la visión hiperoptimista de que la tecnología curará todos nuestros males sociales y medioambientales”, afirma Rachel Maguire, directora de Investigación del Institute for the Future. “En su lugar, deberíamos centrarnos en lo que podría ser la nueva relación entre tecnología y personas y en cómo podemos prepararnos para afrontar esta situación. Si participamos en la tarea de empoderar las asociaciones hombre-máquina para tener éxito, su impacto en la sociedad nos enriquecerá a todos”.

Otros puntos destacados del informe son:

· Para el año 2030, la dependencia de los humanos de la tecnología se convertirá en una auténtica relación, aportando habilidades como creatividad, pasión y una actitud emprendedora. Esto se alineará con la capacidad de las máquinas de aportar velocidad, automatización y eficiencia, y la productividad resultante permitirá nuevas oportunidades dentro de las industrias y los roles.
· Para el año 2030, los asistentes de Inteligencia Artificial Integrada (AI) irán mucho más allá de lo que puede hacerse ahora. Ellos se ocuparán de nosotros en formas predictivas y automatizadas.
· La tecnología no reemplazará necesariamente a los trabajadores, pero el proceso de encontrar trabajo cambiará. El trabajo dejará de ser un lugar para convertirse en una serie de tareas. Las tecnologías de aprendizaje automático harán que las habilidades y las competencias de los individuos puedan ser consultadas, y las organizaciones buscarán el mejor talento para tareas diferenciadas.
· Se estima que el 85 por ciento de los empleos en 2030 aún no se han inventado. El ritmo del cambio será tan rápido que la gente aprenderá “sobre la marcha” utilizando nuevas tecnologías como la realidad aumentada y la realidad virtual. La capacidad de adquirir nuevos conocimientos será más valiosa que el propio conocimiento.

Ilustración: captura del informe
El volumen de datos total a nivel mundial aumentará en 10 veces para 2025
Fecha: 14 July 2017, 11:31 am

Un nuevo estudio de Seagate, líder global en administración y almacenamiento de datos, pronostica un incremento en 10 veces del volumen de datos mundial para el año 2025. El estudio, titulado Data Age 2025, realizado por IDC y patrocinado por Seagate, pronostica que para el año 2025 la generación de datos ascenderá a un total de 163 zettabytes (ZB).

Esto se presenta para las empresas como un desafío para aprovechar nuevas oportunidades utilizando estos datos y las ideas que generan, al mismo tiempo requerirán opciones estratégicas sobre la recopilación, la utilización y la ubicación de la información. Asimismo, el número de consumidores y empresas que crean, comparten y acceden a datos entre distintos dispositivos y la nube continuará superando por mucho las expectativas.

Además, mientras que los consumidores fueron los principales creadores del mayor volumen de datos a nivel mundial, el estudio de Data Age 2025 predice que la tendencia cambiará, y que las empresas pasarán a crear el 60% de la información a nivel mundial para 2025. En este nuevo panorama, los líderes de empresas tendrán la posibilidad de acceder a nuevas y únicas oportunidades de negocios, potenciadas por esta abundancia de datos y las perspectivas inigualables que éstos proporcionan; sin embargo, también tendrán que tomar decisiones estratégicas sobre la recopilación, utilización y ubicación de los datos.

En este sentido, el estudio de Seagate aconseja a empresarios y emprendedores que dirijan su enfoque hacía las tendencias que impulsarán el incremento en el volumen de datos durante los próximos años, e instan a que examinen la trayectoria de sus empresas en torno al valor futuro de la información.

Las empresas se están dando cuenta de la importancia que supone aumentar el volumen de datos. Algunas de las principales transformaciones que están incidiendo en la transición de datos desde usuarios a empresas son las siguientes:

· La evolución de los datos, que han pasado de ser secundarios a adquirir una importancia vital para la empresa: Para el 2025, casi el 20% de la información en la esfera de datos global tendrá gran importancia para nuestra vida cotidiana, y casi la mitad de éstos pasarán a ser críticos para nuestra subsistencia.

· Los sistemas integrados y el Internet de las Cosas (IdC): Para el 2025, la persona promedio conectada en red en cualquier parte del mundo interactuará con dispositivos conectados casi 4.800 veces al día, es decir, aproximadamente una interacción cada 18 segundos.

· El aprendizaje automático por máquinas transformará el panorama: Según estimaciones del IDC, la porción de la esfera de datos global sujeta a análisis de información se incrementará en 50 veces, a 5,2 ZB en 2025.

· Datos verdaderamente móviles y en tiempo real: Para el 2025, más de un cuarto de los datos creados se generarán en tiempo real, y los datos en tiempo real del IdC constituirán el 95% de éstos.

· La automatización y las tecnologías harán que la gran mayoría de los datos creados provengan de fuentes no convencionales: Si bien la creación de datos en los últimos diez años se ha caracterizado mayormente por un incremento en contenido de entretenimiento, la década siguiente reflejará la transición a datos generados para fines de productividad y datos integrados, así como imágenes y videos fuera del sector del entretenimiento, como sistemas de seguridad y publicidad.

“Aunque esta investigación nos permite ver que la era de la inteligencia de datos está en sus albores, el valor de los datos como tal realmente se desconoce, y en ese desconocimiento estamos subestimando su potencial en sobremanera hoy en día. La oportunidad para las empresas hoy en día y los empresarios del mañana de capturar el valor de los datos es increíble, y nuestros líderes de empresas a nivel global estarán explorando estas oportunidades durante décadas”, explica el director ejecutivo de Seagate, Steve Luczo.

El vicepresidente senior de IDC, David Reinsel, comenta: “Desde los automóviles autónomos a los asistentes personales inteligentes, los datos serán el alma de una existencia digital en rápido crecimiento, lo cual dará paso a oportunidades que habían sido inimaginables para las empresas. La innovación tecnológica tendrá una importancia vital a la hora de evaluar y activar de lleno las complejidades de lo que contiene este amplio volumen de datos, y el almacenamiento en particular continuará adquiriendo cada vez más importancia, pues brindará la base a partir de la cual tantas de estas tecnologías emergentes podrán funcionar”.

data-age-2025-infographic-2017



Titulares de DiarioTi.com. © Copyright 1997-2009.
   
Nuestras cámaras de comercio electrónico hermanas
Copyright © 2011
Todos los derechos reservados
Contacto:
(+511) 431.0885
Desarrollado por: