expo:QA'17
 
 

Sesiones: 14 de Junio 2017

 
Julian Harty
 

★ KEYNOTE 1 : ¿Debe de ser así el testing de software?


Track 1 | 09:45 - 10:35


Los equipos de desarrollo de software reconocen que las pruebas son relevantes e importantes. Los testers quieren agregar valor y hacer un trabajo útil y significativo. Sin embargo, la automatización del software está invadiendo y en algunos casos evitando gran parte de las pruebas hechas a mano - incluyendo algunas de las "pruebas automatizadas" creadas por los equipos. Como dice Nicholas Carr en su libro The Glass Cage: "¿Quién necesita a los humanos de todos modos?"


Y si, los seres humanos - las personas - tienen mucho que contribuir a la elaboración de software excelente, incluyendo testing de software.


En esta keynote, Julian investiga: técnicas de automatización líderes para entender más de lo que nos pueden ofrecer en términos de probar nuestro software; cómo las técnicas de pruebas estructuradas pueden ayudar a todos los testers, incluidos los "testers exploratorios", donde el análisis puede ayudar a herramientas, enfoques y técnicas para ayudar a probar más eficazmente.


Después de haber participado en este taller, habremos:


Julian también nos mostrará:

• Cómo establecer la dirección de lo que queremos lograr: nuestra elección afecta el resto de nuestras decisiones.
• El hombre frente a la máquina: lo que la automatización ya es capaz de hacer. Como, quizás paradójicamente, la automatización puede limitar lo que podemos hacer y puede reducir nuestras competencias ¿podemos encontrar maneras de utilizar la automatización que no reduzcan nuestras habilidades?
• La potente combinación de data mining, factores comunes y automatización de testing para ayudar a encontrar errores comunes.
• La eficacia de las pruebas exploratorias.
• Guía de pruebas con datos y análisis.
• Roles para los seres humanos: la gente puede añadir discernimiento.
• Aprender de la medicina.
• Próximos pasos en las pruebas.

Habiendo asistido a esta keynote, obtendremos una mejor comprensión de la potencia y el potencial de la automatización de software y cómo se come en el actual 'valor' de las pruebas realizadas por los seres humanos, así como formas de aprovechar la automatización de software y cambiar nuestras prácticas para que nuestro trabajo siga aportando un valor significativo.


No te pierdas esta keynote si estás involucrado en el diseño, desarrollo, testing y soporte de software.


Julian Harty


Julian Harty es Ingeniero de Software y Tech Ed que ayuda a otros a trabajar más eficazmente cumpliendo en su trabajo y disfrutando de lo que hacen.


Sus especialidades son:

• Pruebas de software incluyendo pruebas realizadas por humanos y "pruebas automatizadas", diseño de software y experiencia de usuario que incluye amplios rangos de usuarios, incluyendo personas con discapacidades e impedimentos.
• Presentación, compartición y tutoría de personas.
• Apps Móviles; con un enfoque particular en aspectos de ingeniería y pruebas tan como automatización de pruebas. Este trabajo abarca varias plataformas, como: Android, iOS y web móvil.

Julian habla, presenta, facilita y enseña en conferencias y talleres en todo el mundo y ha dado keynotes en varios países a lo largo de los años. Otro papel con el que él disfruta es el del coaching y un mentoring, donde está contento al trabajar tanto con vicepresidentes senior como ingenieros junior.

 
 
Lisa Crispin
 

Equipos ágiles: cuando la colaboración se convierte en pensamiento grupal


Track 1 | 11:05 - 11:50


¿Tu equipo ágil sobreestima su velocidad y capacidad? ¿El equipo está constantemente de acuerdo y no discute durante los stand-ups diarios, la planificación o las reuniones de revisión? ¿El silencio se percibe como aceptación? Si es así, la colaboración puede haberse convertido en un pensamiento grupal.


Algunos aspectos de los equipos ágiles que pretenden fomentar la colaboración, incluyendo la auto-organización y el aislamiento físico, también pueden sentar las bases para el pensamiento grupal. El pensamiento grupal es la tendencia de los grupos a minimizar el conflicto y llegar a un consenso sin analizar por completo todos los aspectos de sus ideas. Una manera de mitigar el pensamiento grupal es utilizando CDE (Container Difference and Exchange). Los Contenidos, la Diferencia y el Intercambio son factores que influyen sobre cómo un equipo se auto-organiza, piensa y actúa como grupo.


En esta charla, Gerie aplicará estas teorías para mostrar a los equipos ágiles cómo manejar sus inevitables conflictos. Revisará los factores que conducen al pensamiento grupal, mostrará cómo reconocer los síntomas y desarrollar algunas formas para prevenirlo. Luego usando la teoría del CDE, mostrará lo que los gerentes pueden hacer para influir en positivo sobre el equipo ágil sin interferir en su auto-dirección.


Esta charla pretende enseñarte a aplicar estos conceptos a tus propios equipos y utilizarlos para convertirse en equipos de alto rendimiento.


Gerie Owen


Gerie Owen es una arquitecta de test especializada en el desarrollo y gestión de equipos de testing. Ha implementado varios modelos de QA, y ha desarrollado, formado y orientado a nuevos equipos desde sus inicios.


Gerie gestiona proyectos grandes y complejos que involucran múltiples aplicaciones, coordina equipos de testing a través de múltiples zonas horarias y entrega proyectos de alta calidad a tiempo y dentro del presupuesto. En su vida cotidiana de trabajo, Gerie trae un enfoque de equipo cohesivo a las pruebas. También ha presentado en varias conferencias y ha escrito artículos sobre testing y QA.

 
 
Antonio Robres
 

Una herramienta de testing para gobernarlas a todas


Track 2 | 11:05 - 11:50


Uno de los principales problemas con la automatización de pruebas y definición de casos de prueba es la amplia gama de diferentes herramientas utilizadas para diversos fines y múltiples actividades de pruebas. Por lo tanto, el uso de varias herramientas no sólo requiere de habilidades con todas ellas, sino que también impulsa los costes de formación para el equipo.


Otra desventaja de utilizar una variedad de diferentes herramientas de prueba es el desafío en integrarlas todas juntas para automatizar todo el proceso eliminando la necesidad de la intervención manual.


Para evitar todos estos problemas, necesitamos una sola herramienta que pruebe en todos los niveles, una herramienta que incluya las definiciones de casos de prueba y no requiera integración con otras herramientas. ¿Tal herramienta existirá algún día? Bueno, ya lo hace y está siendo utilizada por miles de desarrolladores de todo el mundo. ¡Python!


Python proporciona varias librarías para soportar pruebas a todos los niveles, desde pruebas de unidad a pruebas de interfaz de usuario a través de pruebas de componentes o de rendimiento. El uso de Python puede; aumentar la velocidad de la automatización de pruebas; mejorar el mantenimiento de las pruebas mediante la reutilización de código y utilidades entre los diferentes niveles de prueba; aumentar la comunicación dentro del equipo de desarrollo.


En esta charla, Antonio nos mostrará cómo probar diferentes niveles (pruebas unitarias, pruebas de API, pruebas de frontal y pruebas de rendimiento) usando sólo librarías Python. También va a mostrarnos ejemplos de cómo reutilizar código en diferentes tipos de pruebas para reducir el grado de mantenimiento que su automatización de prueba requiere.


Antonio Robres


Antonio Robres es Gerente de QA en Telefónica R + D Barcelona. Estudió Ciencias de la Telecomunicación en la Universidad Politécnica de Cataluña y tiene un Máster en Gestión de Telecomunicaciones. Trabaja desde hace 9 años en el campo de pruebas de software e ingeniería de QA para diferentes empresas como Telefónica, Gas Natural y Grifols. Su trabajo se centra en el diseño y automatización de varios proyectos de testing, principalmente en el campo de los servicios web. También es un ponente habitual en conferencias internacionales.

 
 
Albert Tort
 

Un caso de estudio de un ecosistema de DevOps avanzado para el desarrollo, QA y aceleración de operaciones


Track 3 | 11:05 - 11:50


Los enfoques de DevOps y los métodos ágiles plantean nuevos desafíos en la creación de ecosistemas eficientes para el desarrollo, el aseguramiento de la calidad y las operaciones y la aceleración a través de la automatización, mientras que repetitivamente evolucionan a un producto de valor a través de la comunicación y la colaboración.


En esta charla, Albert presentará un estudio de caso real en el que creó un ecosistema operatorio cruzado de DevOps. El ecosistema se creó como un conjunto de componentes de servicios coordinados de diferentes fuentes que interactuaron entre sí para establecer un enfoque pragmático para la aplicación de DevOps en la práctica.


Presentará tanto el enfoque como el estudio de casos concretos, mostrando el desarrollo de una herramienta de aceleración de la garantía de calidad (QA) con el objetivo de generar automáticamente casos de prueba a partir de historias de usuarios.


Albert explicará también cómo la herramienta se ha incorporado progresivamente en un ecosistema de desarrollo para mejorar las actividades de QA (como un producto mínimo viable fue desarrollado) y cómo ha demostrado ser una solución de aceleración innovadora reutilizable que ahora forma parte de un enfoque general.


Finalmente, cubrirá otros aspectos necesarios para transformar este ecosistema de trabajo: cultura organizada, alineación de tecnología empresarial, procesos de trabajo explícitos, capacidades de análisis de imágenes grandes y retroalimentación iteración-por-iteración.


Albert Tort


Albert Tort es especialista de control y pruebas de software en Sogeti España. Anteriormente, se desempeñó como investigador en los Servicios y Sistemas de Información del Departamento de la Universidad Politécnica de Cataluña -Barcelona Tech. Como miembro del grupo de investigación de Modelado y Procesamiento de Información (MPI), centró su investigación en el modelado conceptual, las metodologías de ingeniería de software, los estándares de OMG, la gestión del conocimiento, la ingeniería de requisitos, laciencia de los servicios, la web semántica y la garantía de la calidad del software.

 
 
Ignacio Lopez
 

Las comparaciones no siempre son odiosas


Track 4 | 11:05 - 11:50


En un mundo tan global como en el que vivimos es necesario saber nuestra posición en el mercado.


Algunas empresas realizan comparaciones para demostrar lo buenas que son, otras lo hacen para demostrar que antes se hacían las cosas mal y que ahora las hacen bien.


Hay algunas comparaciones que son odiosas y otras que son necesarias. Lo importante es tener un objetivo claro.


Todos estamos acostumbrados a ver en la TV anuncios de webs que comparan precios de seguros, de las hipotecas, de vuelos en avión, de hoteles, de coches, de electrodomésticos… pero, ¿qué comparaciones podemos hacer en la industria del software?


Existen modelos para comparar la productividad de las empresas de desarrollo software, los costes, los proveedores, … Casi todas las comparaciones giran en torno al precio, pero en Europa no podemos competir en precios con el mercado asiático o latinoamericano y tenemos que competir en calidad.


¿Cómo comparamos la calidad del software producido y el riesgo que asumimos?


El propósito de esta charla es mostrar la potencia de unas adecuadas comparaciones: qué se puede comparar, qué se debe comparar, qué no se debe comparar, contra qué datos se pueden realizar comparaciones, pero fundamentalmente cómo se deben realizar las comparaciones del riesgo software de los desarrollos realizados para sacar el máximo partido y establecer un modelo de mejora más adecuado a las necesidades de la organización de tal forma que la organización sea lo más competitiva posible.


Ignacio López


Ignacio López es actualmente el Director del Área de Gobierno de Pruebas de Leda-MC (consultora especializada en Gestión de Proveedores, Calidad y Testing). Después de haber estado trabajando durante 10 años en equipos de Desarrollo, se ha especializado (durante los últimos 15 años) en temas relacionados con la optimización de la gestión de pruebas de software, como Director de SQA en diferentes empresas (Meta4, InOutTV, …) y dirigiendo el área de negocio de pruebas de software en varias consultoras (Aventia, LEDAmc) y ayudando a implantar los procesos de pruebas en grandes organizaciones. Ignacio es Ingeniero Informático por la Universidad Politécnica de Madrid. En los últimos años ha descubierto la potencia que el uso de los puntos función pone a disposición de la gente que trabaja en Pruebas de Software y en Calidad para optimizar y controlar los procesos.

 
 
Enrique Sanchez
 

Una mirada en el interior del uso de Appium para la automatización de pruebas de aplicaciones móviles


Track 5 | 11:05 - 11:50


En los últimos años la automatización de pruebas en dispositivos móviles ha tomado cada vez más importancia y cada vez más empresas han optado por Appium como herramienta principal.


En esta master class, Enrique Sánchez hablará de cómo funciona Appium, cuál es la filosofía detrás de esta librería, cómo es el protocolo que utiliza, cómo maneja sesiones con los dispositivos y cómo accede a los elementos. Nos va a ayudar a entender mejor cómo funciona Appium y cómo ser más eficientes a la hora de trabajar con la librería.


Enrique Sánchez


Enrique es Ingeniero Informático y lleva más de 6 años en el mundo de QA y Testing. Ha estado toda su carrera entre gran empresa (BBVA, Telefónica...) y start-up (Tuenti, Jobandtalent...), compaginando creación de equipos y procesos con automatización. Actualmente trabaja como QA Lead en Cabify buscando cómo añadir IA al mundo del testing.


En sus ratos libres da clases en U-Tad University mientras intenta doctorarse en Inteligencia Artificial y coorganiza #MADQA.

 
 
Israel Rogoza
 

IoT testing: Como superar los 5 grandes desafíos


Track 1 | 12:00 - 12:45


Gartner dice que más de 6,4 mil millones de dispositivos de Internet de las Cosas (IoT) estarán en uso en 2017, y ese número crecerá a más de 20 mil millones en 2026. Probar estos dispositivos - que van desde los refrigeradores que realizan automáticamente pedidos al supermercado, a automóviles autodirigidos - será uno de los mayores desafíos que a los que se enfrentarán los fabricantes e integradores de dispositivos en los próximos años. Las pruebas eficaces son fundamentales. Pero, ¿cuál es el mejor enfoque?


En esta charla, Israel hablará sobre algunas de las consideraciones más importantes para probar los dispositivos IoT, y dará algunos consejos vitales que podrás utilizar para ayudarte a abordarlas.


Israel Rogoza


Israel Rogoza es un experimentado QA & Ingeniero de Servicios Profesionales con más de 7 años de trayectoria en desarrollo de software empresarial y pruebas. Durante los últimos 3 años, ha sido el Líder de Tecnología de QA en HPE Software, responsable de la automatización de backend y pruebas manuales de los productos de test de carga StormRunner Load y LoadRunner, este rol incluye tener un fuerte conocimiento y compromiso técnico con las necesidades del cliente.


Antes de formar parte de HPE, él era líder de un equipo de Servicios Profesionales en NCR. Tiene mucha experiencia y tiene una gran comprensión de una amplia gama de habilidades de gestión empresarial y se esfuerza por tener éxito en cualquier función.

 
 
Patxi Gortazar
 

Experiencias usando Docker en un entorno CI complejo


Track 2 | 12:00 - 12:45


La tecnología de Docker Container ha ganado mucho protagonismo en el último par de años. El uso de Docker en un entorno de Integración Continua (CI) puede ser una gran ventaja sobre el uso de máquinas virtuales cuando se trata de escenarios complejos de CI. Incluso si los contenedores no se utilizan en el despliegue, hay muchos resultados posibles de usar Docker en CI.


En esta charla, Patxi nos hablará de su experiencia con la gestión de escenarios complejos de CI con Docker. Su idea es mostrar cómo su equipo utilizó Docker en sus pruebas, cómo lograron construir pruebas complejas con varios contenedores y cómo manejaron la infraestructura completa. También nos describirá cómo el uso de esta infraestructura es mucho más fácil que los entornos de CI tradicionales.


Patxi nos adentrará en un viaje para ver los esfuerzos necesarios para construir una infraestructura de CI alrededor de Docker, mostrando cuáles son los beneficios y cómo dominar las excepciones si se usa Docker en producción.


Patxi Gortazar


Patxi Gortazar es autor y doctorado en Informática. Con más de 12 años de experiencia en la enseñanza y charlas en conferencias, trabaja como especialista de DevOps en Kurento, un proyecto WebRTC, que gestiona infraestructuras de CI a gran escala.

 
 
José Moreno
 

Ciberseguridad y pruebas de Hacking Ético


Track 3 | 12:00 - 12:45


No hacer nada ya no es una opción, cada vez son más los consumidores afectados por brechas de ciberseguridad. Existen estudios que afirman que uno de cada tres consumidores cerrarían una cuenta online, o dejarían de hacer negocio con la empresa que consideran responsable, como consecuencia de un fallo de ciberseguridad.


Durante esta charla se darán indicaciones y buenas prácticas para proteger adecuadamente la seguridad de nuestros sistemas, se hará un repaso de las diferentes soluciones y herramientas que los ingenieros de ciberguridad despliegan y operan en su día a día para proteger las infraestructuras informáticas de grandes empresas y corporaciones.


Estas soluciones te ayudarán a tener una imagen del sector de la ciberseguridad en los ambientes corporativos y laborales.


Además, se va a realizar una introducción a las diferentes técnicas y herramientas de Hacking Web apoyándose en: el origen de la vulnerabilidad, vectores de ataque, explotación, canales de distribución, medidas mitigadoras, etc.


Para afianzar los conceptos mostrados en esta charla, se planteará a partir de un caso práctico real, cuál sería la recomendación de las fases de un proyecto de auditoría de Seguridad basada en Pentesting para un proyecto.


José Moreno


José Antonio Moreno Galeano es Ingeniero Técnico en Informática por la Facultad de Informática de la Universidad Politécnica de Cáceres, con 20 años de experiencia en el sector de Tecnologías de la Información y una amplia experiencia como Ingeniero de Seguridad/Pentester, adquirida en proyectos de seguridad biométrica, identificación dactilar y auditorias de seguridad informática.

 
 
Miguel Rial
 

¿Cómo nos puede ayudar el cloud en nuestra estrategia de pruebas?


Track 4 | 12:00 - 12:45


La búsqueda de una mayor rapidez en la entrega de nuevos productos y servicios ha hecho que la adopción de metodologías ágiles y los principios de DevOps sea cada día más frecuente.


Ahora bien, este incremento en el número de releases junto con la creciente diversidad de plataformas y canales supone todo un reto para las organizaciones, que buscan cómo mantener la calidad al mismo tiempo que aumenta la cadencia de las entregas.


En esta charla, Miguel explorará qué soluciones puede aportar el cloud a afrontar algunos de estos retos y cómo encaja en nuestra estrategia de pruebas.


Miguel Rial


Miguel Rial, es Ingeniero Superior de Telecomunicaciones por la Universidad de Vigo y ha desarrollado su carrera profesional durante los últimos 17 años en el ámbito del software de gestión, más específicamente en el área de ventas de soluciones de ciclo de vida de las aplicaciones. A lo largo de su carrera profesional ha trabajado para diferentes compañías como son Telefónica I+D, Telefónica Móviles, Mercury, HP y HPE, realizando tareas de ingeniero de pruebas, ingeniero de ventas y desarrollo de negocio de soluciones de desarrollo y pruebas en España y el sur de Europa. Actualmente Miguel es Consultor de Negocio para la región sur de Europa (EMEA) en HPE Software.

 
 
Mike Jarred
 

★ KEYNOTE 2 : La evolución continua de las pruebas en la FCA


Track 1 | 14:15 - 15:05


Esta keynote describirá algunos de los retos comunes que enfrentan los Jefes de Testing cuando se unen a una organización. La charla se basará en la experiencia de Mike del compromiso temprano con sus stakeholders y cómo el grupo de testing FCA ha experimentado una gran cantidad de cambios con el fin de proporcionar un servicio de testing moderno, eficiente y valioso por repensar sus enfoques de las pruebas.


Mike hablará sobre; la importancia de la participación de los stakeholders y la comprensión de los distintos niveles de riesgos a tomar de los mismos; la manera en que rastreamos la eficacia del grupo de testing para cumplir con el grado de riesgo propuesto por los stakeholders; la importancia de entender el valor de la inversión y cómo visualizarla al entregar un servicio de testing a las partes interesadas; los motivos que impulsan al cambio de enfoque de la Gobernanza de Testing por uno de Aseguramiento Testing, garantizando que se entrega un servicio que es relevante, dirigido, óptimo y proporcional a la toma de riesgos.


A partir de esta keynote, reconoceremos el valor de un buen compromiso con los stakeholder, cuando se realiza un servicio de testing y descubriremos cómo asegurar un buen servicio por parte de los proveedores durante los períodos de cambios difíciles.


Mike Jarred


Mike Jarred es un experto en testing con más de dos décadas de experiencia en el tetsing de software y gestión de QA reconocido en un amplio sector de la industria. Mike trabaja para la Financial Conduct Authority (FCA) como Gerente Senior liderando su equipo de Optimización de Entrega de Soluciones.


Es un apasionado de los métodos óptimos para la entrega de software, así como pruebas de software y el uso de información generada por equipos de proyectos para mejorar tanto la calidad del software, como para iniciar la mejora de la organización. Fuera de su trabajo en la FCA, Mike es el presidente de programa para el Assurance Leadership Forum. También es mentor de Test Managers, y sigue asistiendo y hablado en conferencias para continuar su educación dentro del testing.

 
 
Raji Bhamidpati
 

Testing en parejas en un mundo ágil


Track 1 | 15:15 - 16:00


“En todos mis años como tester, la mayor parte de las veces llevaba a cabo las pruebas por mi cuenta. ¿Por qué? Realmente no lo sé. Es lo que he visto hacer otros, y lo que hice yo misma. Claro que iré y pediré a otra persona que revise mis descubrimientos si no puedo llegar a una conclusión. Pero nunca se me ocurrió que pudiera vincularme a alguien mientras probaba. Hasta que el destino se hizo cargo de ello y me presentó una oportunidad para hacerlo.


Yo era una tester individual en un equipo y después de unos meses, tuvimos a otro probador (llamémosle John) que se unió a nosotros. John tenía conocimiento muy bueno del producto y conocía los fundamentos del proyecto en el que estábamos trabajando. Inicialmente, John y yo empezamos a emparejarnos mientras hacíamos pruebas para conseguir que John ganara velocidad.

Sin embargo, durante este proceso, comenzamos a hablar y hacernos preguntas. Nos dimos cuenta de que nuestro testing tenía mejor calidad cuando emparejamos. Esta experiencia me ha hecho dar un paso atrás y reevaluar mis habilidades como tester. Ahora considero 'ser capaz de unirse' como una de las habilidades clave que un tester debe poseer. Mi estilo de testing ha cambiado considerablemente después de comenzar el trabajo en parejas y ahora me uno a otras personas durante varias fases de desarrollo.


Todos hemos oído hablar de los beneficios de la programación en parejas y vemos que se aplica con frecuencia en los equipos ágiles. ¡Sin embargo, no he escuchado tanto sobre el testing en parejas! He leído algunos artículos y blogs sobre este tema, y también he oído hablar de un par de charlas en conferencias. El testing en parejas puede ser muy beneficiosao para los equipos cuando se aplica correctamente.”


En esta charla, Raji dará consejos y sugerencias para identificar las oportunidades de unirse con otros testers. Nos contará las ventajas que el ligarse a otro puede representar para el equipo, y posteriormente las podremos utilizar para convencer a otros miembros del equipo para emparejarnos. Descubriremos nuevas ideas sobre la ejecución de pequeños experimentos de unión y luego utilizaremos los resultados de estos experimentos para evaluar si el trabajo por parejas es adecuado o si lo estamos haciendo bien.


Raji Bhamidpati


Raji Bhamidipati es una Software Tester y un Scrum Master de profesión. Cuando Raji comenzó su carrera en testing de software, creyó que como Tester estaría ayudando a mejorar la calidad de los productos que se entregan. En los últimos años, Raji se ha dado cuenta de que la forma en que un equipo trabaja en conjunto tiene un enorme impacto en la calidad y la entrega. Esta realización provocó un deseo de aprender más sobre equipos eficaces. Después de haber trabajado con algunos maravillosos Scrum Masters, ella también ha encontrado su vocación en este papel.

 
 
Juan Pedro Escalona
 

División y estrés: el camino hacia la prueba de carga de componentes


Track 2 | 15:15 - 16:00


“Hace un año, sólo realizábamos pruebas de rendimiento en un entorno integrado, lo que significaba que cada producto primero pasaba por pruebas funcionales, donde las pruebas de rendimiento se pospusieron hasta el final del ciclo de desarrollo. Este enfoque muy a menudo nos llevó a hacer frente a dos asuntos: problemas de rendimiento que se descubrían demasiado tarde en el ciclo de desarrollo y tener "mal comportamiento" de los componentes que en última instancia afectando los resultados de los sistemas en función de ellos.


Para mitigar el riesgo de que los componentes de "mal comportamiento" llegaran al entorno integrado, implementamos un sistema de pruebas de componentes que permitió a nuestros equipos de desarrollo: 1) asegurarse de que cada componente estuviera al menos funcionando como antes de hacer cambios en el software; 2) obtener retroalimentación rápida sobre el rendimiento del software que se había modificado.”


En esta charla, Juan Pedro nos adentra en un viaje desde el concepto inicial que su equipo tenía y los requisitos que tenían que cumplir, hasta la forma en que están probando su entrega más actual. Juan Pedro mostrará cómo su implementación facilitó una gestión más fácil de las pruebas de rendimiento, cómo redujo el consumo de recursos y cómo fueron capaces de definir escenarios de prueba de componentes múltiples.


Juan Pedro Escalona


Juan Pedro Escalona es Administrador de DevOps con un gran interés en proyectos de software de código abierto. Se especializó en virtualización (EC2, OpenStack, KVM) y en redes. También es un entusiasta de desarrollo de framework Python y Django.

 
 
Colm Fox
 

¿Cómo medir la calidad en los proyectos dinámicos?


Track 3 | 15:15 - 16:00


En esta charla, Colm Fox , nos mostrará cómo medir la calidad del software, que información recoger y qué hacer con dicha información, haciendo el paralelismo entre los conceptos de “Data Intelligence” y” Business Inteligence”.


Colm utilizará el Kusco Analitycs de Morphis, para enseñar cómo se puede de forma automática recoger y cruzar información proveniente de múltiples orígenes, como las fuentes de las aplicaciones, los “versionadores”, los diccionarios de datos de las bases de datos, los repositorios de los gestores de incidencias de proyectos, etc.


Y con base en estos cruces, como Kusco, puede cubrir aspectos como asegurar un adecuado control de calidad, el análisis de impacto, el cálculo de la deuda técnica, la documentación automática y proporcionar una grande variedad de métricas e indicadores de calidad, todo sobre una visión gráficamente atractiva basada en cuadros de mandos, de fácil personalización, con varias posibilidades de reporte y desglose.


Además de cómo se pueden implementar estrategias para sanear la deuda técnica, basadas en automatismos y en la detección de los puntos que una vez corregidos producen mejoras muy significativas en las aplicaciones (los puntos calientes) en una perspectiva de 80% mejoras con 20% de esfuerzo.


Colm Fox


For the last two years, Colm has been Head of Business Development for EMEA with Morphis, a global technology provider for both legacy and current systems analysis, transformation, development and quality certification. This has seen him involved in many high value legacy application modernisation projects with a strong testing and QA component of systems developed 10-30 years ago in legacy environments that have been digitally transformed into modern architectures and environments.


Colm has also been involved in developing Morphis’ strong technology partnerships with leading technology and professional services providers including Microsoft, IBM, Fujitsu, HPE and Accenture. This has given him first-hand knowledge and experience of how best practice is applied in leading organisations around the world.

 
 
Jose Rodriguez
 

Testing continuo para hacer posible la entrega continua


Track 4 | 15:15 - 16:00


En los últimos años el testing automático ha evolucionado desde un enfoque de automatización de pruebas de regresión, pasando por integración continua hasta llegar a ser uno de los elementos clave, si no el principal, en estrategias de entrega continua.


La entrega continua permite optimizar el time-to-market de los productos, acelerando al máximo el ciclo de vida de desarrollo del software y habilitando continuas subidas a producción de las sucesivas versiones de los productos.


En esta charla José Andrés nos mostrará el enfoque de testing continuo que los equipos de pruebas de Softtek siguen para hacer posible la entrega continua de software. Veremos que con una combinación adecuada de diversos ingredientes (desarrollo ágil, automatización de pruebas unitarias, pruebas de interfaz y pruebas de servicios, haciendo especial hincapié en estas últimas, herramientas para restaurar y generar datos de prueba, dockerización de entornos, mocking, etc.) y una estrategia de automatización de pruebas orientada a cubrir los requisitos de negocio y las funcionalidades principales de los productos, la entrega continua es posible.


José Andrés Rodríguez


José Andrés Rodríguez es Ingeniero de Telecomunicaciones por la Universidad Politécnica de Valencia y tiene 15 años de experiencia en el mundo del testing. Ha participado en un gran número de proyectos de automatización de pruebas, utilizando distintas herramientas y frameworks de automatización. Ha automatizado pruebas, realizado consultoría, implantado metodologías de pruebas y procesos de integración y entrega continuas, impartido formaciones y habilitado equipos de pruebas, tanto presenciales como equipos remotos. Actualmente José Andrés es Delivery Manager en Softtek.

 
 
Sonali Patro
 

Automatización de pruebas móviles usando software de código abierto


Track 1 | 16:30 - 17:15


La automatización de pruebas de dispositivos móviles es una área difícil en la mayoría de las organizaciones de software y aunque hay muchas herramientas disponibles en el mercado, la selección de la herramienta adecuada para cada necesidad no es tarea fácil.


Durante el desarrollo, las pruebas unitarias generalmente son llevadas a cabo por desarrolladores, pero estas pruebas son algo limitadas y en la detección de errores que en una etapa posterior podrían afectar a la plataforma móvil.


En esta charla, Sonali nos guiará a través de la combinación de pruebas de caja blanca con el software de código abierto (OSS), que cualquier organización puede adoptar para descubrir los defectos de su plataforma móvil desde una etapa muy temprana.


Se centrará en varios aspectos de la automatización de entornos genéricos, donde Android, Windows y otras plataformas no están estrechamente juntas y pueden ser probados agnósticamente.


Sonali Patro


Sonali Patro es graduada en ingeniería en Tecnología de la Información. Después de graduarse de la Universidad Bijupatnaik (Orissa) en 2007, trabajó como profesor en la facultad de ingeniería, luego con IBM como Ingeniera Junior y luego con Symphony y Tangoe. Actualmente es Ingeniera Senior de Pruebas en Happiest Minds Technologies.

 
 
Christiane Melo
 

Una experiencia práctica en la enseñanza de pruebas de software para personas con discapacidades


Track 2 | 16:30 - 17:15


Esta charla describe la experiencia de enseñar testing de software a personas invidentes, sordas y con discapacidad intelectual, para promover la inclusión digital de las mismas en el mercado global.


Christiane nos hablará sobre una metodología de enseñanza de pruebas de software, asociada con tecnologías de asistencia que permite a los estudiantes comprender la disciplina.


Ella contará su historia acerca de cómo le fue posible preparar a personas con discapacidades para probar el software, así como de aquello que las empresas pueden esperar al contratar una persona discapacitada.


Christiane Melo


Christiane Melo tiene un Máster en Ciencias de la Educación y es especialista en Informática Educativa (FAFIRE). Cuenta con más de 20 años de experiencia en Informática Educativa y en Tecnología Educativa de la Fundación Bradesco en Positivo Informática y en el Centro de Telehealth (UFPE) en Educación Primaria, Media y Alta como Profesora de Informática Aplicada en Cursos de Sistemas de Información, Administración y optometría.


Actualmente trabaja para la ONG Integrarte con TICs para Jóvenes con Discapacidad Intelectual y es socia y fundadora T-access testing and accessibility, actuando como Analista de Sistemas en Accesibilidad Educativa y Empresarial.

 
 
Eduardo Riol
 

Herramientas de Testing en la era de DevOps y Agile


Track 3 | 16:30 - 17:15


Colaboración, integración, agilidad, automatización… la manera en la que testamos está evolucionando para adaptarse y enriquecerse con las buenas prácticas DevOps y entornos ágiles.


Las herramientas que usemos para apoyarnos en este cambio son cruciales: definen nuestra capacidad de integración, de uso de herramientas colaborativas o la facilidad con la que podemos implementar distintas metodologías de especificación, testing o desarrollo.


Para dar apoyo a una visión moderna del Testing en la era de DevOps y Agile, estas herramientas tienen que permitirnos la implementación de metodologías como Test Driven Development (TDD), Behaviour Driven Development (BDD), facilitarnos la automatización de pruebas, el testing exploratorio y la colaboración entre los miembros del equipo.


En esta charla repasaremos colaborativamente las características que queremos que tengan nuestras herramientas de Testing y analizaremos tres Test Management Tools: Tarántula, Zephyr + Jira y qTest Platform. Compararemos sus capacidades y funcionalidades para darnos apoyo en entornos colaborativos, ágiles y automatizados y finalmente comentaremos las capacidades de migración que estas herramientas ofrecen desde entornos de testing más tradicionales.


Eduardo Riol


Eduardo Riol es Líder Técnico de la Comunidad de QA & Testing en atSistemas, coordinando y ejecutando servicios en el ámbito del Aseguramiento de la Calidad del Software y la Automatización de Pruebas. Previamente trabajó para múltiples organizaciones técnológicas en aspectos relacionados con la definición e integración de Metodologías Ágiles de Testing y Desarrollo. Actualmente sus intereses a nivel técnico se centran en el control de la deuda técnica, BDD, y la integración de QA en entornos Agile y DevOps. Es Ingeniero en Informática por la Universidad de Valladolid.

 
 
Javier Lisbona
 

Soporte a DevOps: demo de virtualización de servicios.


Track 4 | 16:30 - 17:15


La virtualización de servicios se centra en un problema clave que enfrentan la mayoría de las organizaciones: el tiempo y los recursos necesarios para configurar y administrar entornos de prueba. Tradicionalmente, la gente se ha centrado en la instalación de hardware, la configuración de servidores de aplicaciones, servidores de bases de datos, la instalación de software de aplicación y la configuración de todo eso. No se trata sólo de un problema muy intensivo de capital, sino que como los entornos se han vuelto más y más complejos, se trata también de un proceso muy propenso a errores que normalmente implica una gran cantidad de esfuerzo y de repetición de trabajos.La virtualización de servicios permite a las organizaciones abordar este problema mediante la virtualización de pilas completas de software, hardware y servicios, permitiendo a los desarrolladores y testers hacer frente a los entornos de prueba en cuestión de minutos o semanas, para hacer eso cuando quieran y, de hecho, iniciando las pruebas mucho antes de lo que ha sido tradicionalmente posible. Puede ayudar a las organizaciones a transformar la forma en que se ocupan de la calidad del software mediante:

• Mejor gestión de sus costes: reducir los costes de hardware, software y mano de obra asociados al mantenimiento de entornos de prueba complejos.
• Mejorar el tiempo del ciclo de prueba: al reducir el tiempo perdido en espera de la disponibilidad y la configuración de entornos de prueba.
• Mejor gestión del riesgo en la entrega de software: al hacer las pruebas antes, la organización puede evitar los problemas de integración de última etapa (Shift Left).

Por favor, únete a mí en esta presentación y demo acerca de cómo ejecutar servicios de virtualización y dónde puedes aplicarlos en tu empresa.


Javier Lisbona


Javier Lisbona es ingeniero informático y se incorpora a IBM como resultado de la adquisición en 2008 de la empresa Telelogic ®. Antes de su incorporación, ha trabajado como consultor sénior de gestión de requisitos y pruebas en el sector aeroespacial durante 1 año. Durante 4 años desde su entrada en IBM, Javier ha trabajado como especialista en servicios de IT de Rational Software para España, Portugal, Grecia e Israel. Su experiencia se centra en la gestión del ciclo de vida de aplicaciones, específicamente en las áreas de gestión de requisitos y de pruebas. Durante este tiempo, ha participado en varios proyectos en diferentes sectores (aeroespacial, defensa, gobierno, electrónica…) con diferentes herramientas. Desde septiembre de 2012, Javier es preventa técnico en el equipo de IBM para España, Portugal, Grecia e Israel. Actualmente trabaja en grandes cuentas como BBVA o Banco Santander.

 
 
Paul Gerrard
 

EL GRAN DEBATE : Industria vs Expertos patrocinado por HPE


Debate | 17:25 - 18:25


Un gran debate mediado por nuestro program chair, Paul Gerrard, en el que gente seleccionada de los sectores de la industria y de los profesionales presentes, además de la audiencia, formarán lados opuestos para dar sus opiniones sobre de una serie de afirmaciones acerca de las pruebas y la calidad del software actual. Más info aquí.

 
 
Organizado por
nexo QA