20. Oktober 2011
Aus BW-Test
von
20. Oktober 2011
Wechseln zu:
Navigation
,
Suche
==2. Software-Testing-Day Baden-Württemberg - "Test the Best"== <i>Änderungen möglich!!!</i><br><br> <b>Die Veranstaltung wird gesponsert von der Wirtschaftsförderung Stuttgart. [http://opensource.region-stuttgart.de/ Wirtschaftsförderung Stuttgart]</b><br><br> ==Veranstaltungsdaten== Datum: Donnerstag, den 30. September 2010 Beginn: 13:00 Uhr Ort: Werkzentrum Weststadt, Rheinlandstraße 10, D-71636 Ludwigsburg - [http://www.werkzentrum-weststadt.de/kontakt.html Anfahrtsbeschreibung] Übersicht: [http://maps.google.de/maps?q=Werkzentrum+Weststadt&oe=utf-8&rls=org.mozilla:en-US:official&client=firefox-a&um=1&ie=UTF-8&ei=EP0VTM7vEqeTOI6YwYkM&sa=X&oi=mode_link&ct=mode&ved=0CA0Q_AU Google Maps] Wir bitten für unsere Planung um eine kurze formlose Anmeldung. Bitte melden Sie sich bis zum 28. September über die [http://www.asqf.de/fachgruppentermine-anzeige/events/fg-software-testing-day-baden-wuerttemberg-ludwigsburg.1238.html ASQF Veranstaltungsseite] an. Die Teilnahme ist kostenlos. Eine Anmeldebestätigung wird nicht versandt. <br> <br> ==Agenda== 13:00 Uhr - Registrierung mit Imbiss<br> <b>13:30 Uhr - Vortrag: Widerstand gegen Testen (… und wie Tester ihm begegnen)</b><br> <b>14:30 Uhr - Vortrag: Testen in Großprojekten: Probleme, methodisches Vorgehen und Alltag</b><br> 15:30 Uhr - Kaffeepause mit Ausstellung & Workshops <br> <b>16:30 Uhr - Vortrag: Gut, wenn es funktioniert. Besser, wenn man es auch versteht. Wie werden Benutzeranforderungen erhoben und was bringt´s?</b><br> <b>17:30 Uhr - Vortrag: Automatische Testfallgenerierung unter Einbeziehung der Risikopriorität</b><br> 18:30 Uhr - Afterwork-Drink mit Ausstellung<br><br> ==Inhalt und Ziel der Veranstaltung== Das diesjährige Thema: "Test the best", steht ganz im Zeichen verschiedenster Test- und Testmanagementtools. Mit dieser Veranstaltung soll der Bogen von der Testplanung bis zur Testverwaltung gespannt werden. <br> ==Aussteller== - eXept Software AG (expecco/expeccoNET) [http://www.exept.de/ www.exept.de]<br><br> - GFB Softwareentwicklungsgesellschaft mbH (Q-up) [http://www.gfb-softwareentwicklung.com/Produkte.html/ www.gfb-softwareentwicklung.com]<br><br> - Hewlett-Packard GmbH (QuickTestProfessional/Quality Center) [http://www.hp.com/de www.hp.com]<br><br> - imbus AG (TestBench/MBT) [http://www.imbus.de/startseite/ www.imbus.de]<br><br> - Logica Deutschland GmbH & Co. KG [http://www.logica.de/ www.logica.de]<br><br> - Microsoft Deutschland GmbH (VisualStudio) [http://www.microsoft.de/ www.microsoft.de]<br><br> - sepp.med GmbH (.mzT/.getmore) [http://www.seppmed.de/ www.seppmed.de]<br><br> - Software Quality Systems AG [http://www.sqs.de/ www.sqs.de]<br><br> - Tricentis Technology & Consulting GmbH (Tosca Testsuite) [http://www.tricentis.com/tosca+M54a708de802.html www.tricentis.com]<br><br> - Verifysoft Technology GmbH (Qtronic/Testwell CTC++/Testwell CMT++/CMTJava/Coverity Prevent) [http://www.verifysoft.com www.verifysoft.com]<br><br> ==Sprecher== <br> <b>Jan Overbeck, ANECON</b><br> <b>Vortrag: Widerstand gegen Testen (... und wie Tester ihm begegnen)</b><br> <b>Abstract:</b> Seit G. Myers 1978 "The Art of Software Testing" geschrieben hat, haben wir viel über Software-Test gelesen und gehört - neue, und verbesserte Methoden, Techniken und Werkzeuge. Alle diese Beiträge zum Stand der Technik im Software-Test sind wichtig und richtig - es hat sich eine Menge entwickelt seit 1978. Aus der täglichen Praxis des Software-Tests in den vergangenen 15 Jahren erscheint mir jedoch ein Aspekt erfolgskritisch, der meines Erachtens zu wenig beleuchtet wurde: der Faktor Mensch. Führt man in einem Projekt oder in einer Organisation Software-Testen ein (oder verbessert man den vorhandenen Testprozess nachhaltig), so löst das bei Menschen in unterschiedlichen Rollen unterschiedliche - meist abwehrende - Reaktionen aus. Die resultierenden Haltungen gegenüber dem Test lassen sich jedoch in konstruktive Haltungen umwandeln. Das Ergebnis ist eine höhere Effizienz im gesamten Projekt, nicht nur im Testen. Erst dann hat Software-Test den Beitrag zum Projekterfolg geleistet, den man sich erwarten darf. Ich werde in diesem Vortrag die typischen "Abwehrreaktionen" und deren mögliche positive "Umwandlung" aufzeigen. Die vom Test betroffenen Rollen, die im Vortrag behandelt werden, sind: Entwickler, zukünftige Anwender, Projektleiter / Projektsteuerungsgremien, Manager und Projektleiter in einem weiteren Aspekt ihrer Tätigkeit.<br> <b>Zur Person:</b> Jan Overbeck hat 1990 das Studium der Informatik an der TU Berlin abgeschlossen. Von 1990 bis 1994 hat er als Assistent an der TU Wien in einem Forschungsprojekt gearbeitet. Seit 1991 beschäftigte er sich mit dem Thema objektorientiertes Testen, und verfasste auch seine Dissertation zu diesem Thema: Integration Testing for Obejct-Oriented Software. Zwischen 1994 und 1998 war er als Berater für objektorientierte Analyse und Projektmanagement in der Firma Servodata in Wien beschäftigt und hat mehrere große österreichische Finanzdienstleister und andere Kunden beraten. 1998 gründete Jan Overbeck mit drei Partnern die Firma ANECON, die sich seit 2001 mit dem Thema Testen beschäftigt. Inzwischen ist die ANECON Österreichs größter Anbieter von Testdienstleistungen. 2010 wurde in Dresden eine deutsche Tochtergesellschaft der ANECON gegründet, Jan Overbeck hat hier die Geschäftsführung übernommen. Jan Overbeck ist seit 1992 (tw. inaktives) Mitglied der Fachgruppe (zunächst Arbeitskreis) TAV Testen, Analysieren und Verifizieren von Software und mit der ANECON Mitglied im ASQF. <br> <b>Michael Mlynarski, Universität Paderborn & Melanie Sauter, Capgemini sd&m</b><br> <b>Vortrag: Testen in Großprojekten: Probleme, methodisches Vorgehen und Alltag</b><br> <b>Abstract:</b> Gute Software zu entwickeln und zu testenist alles andere als einfach. Bei kleinen bis mittleren Projekten ist die zu testende Funktionalität oft noch überschaubar. Bei Großprojekten mit mehr als 40 Mitarbeitern und sehr komplexen Systemen potenziert sich die Relevanz der typischen Probleme beim Testen: - Am Testen wird oft gespart! Wenn es bei der Entwicklung brennt, dann leidet daran vermehrt das Testbudget.<br> - Spät erkannte Fehler kosten viel Geld! Gerade in Großprojekten beginnt z.B. die Testspezifikation oft viel zu spät.<br> - Aussagen über die Testqualität sind oft nicht möglich! Bestes Beispiel ist das Thema der erreichten Testabdeckung (nicht unbedingt die Abdeckung des Codes).<br> - In den Testteams werden oft juniore Mitarbeiter eingesetzt! Auf eine gezielte Ausbildung wird hierbei keinen Wert gelegt.<br> - Testautomatisierung wird nur für die Komponententests eingesetzt! Selten überlegen sich die Testteams die höheren Teststufen teilweise zu automatisieren.<br> - Das Thema Testdaten wird unterschätzt! Die Qualität der Tests hängt häufig von der Qualität der Testdaten ab. Diese zu Erzeugen kann aber komplizierter sein der eigentliche Testfall.<br> Um diesen und anderen Problemen entgegenzuwirken, haben wir zusammen mit dem Software Quality Lab eine unternehmensweite Testmethodik für Capgemini sd&m entwickelt. Sie besteht aus mehreren Bausteinen, die ein praxisnahes Verfahren für den Einsatz in Projekten bieten. Unterstützt durch Vorlagen, Tools und Best-‐Practices ist es uns gelungen, diese Methodik in mehreren Großprojekten erfolgreich einzusetzen. In unserem Vortrag greifen wir einige der typischenProbleme in Großprojekten auf und stellen Ihnen eine methodische Lösung vor. Das Ganze wird durch konkrete Praxisbeispiele aus Großprojekten ergänzt. Somit können Sie einen Einblick sowohl in die methodische aus auch praktische Seite des Testens in Großprojekten erhalten.<br> <b>Zur Person:</b> Michael Mlynarski hat ein Informatik-‐Masterstudium an der Universität Paderborn abgeschlossen. Während des Studiums hat er in unterschiedlichen Rollen (Entwickler, Tester, Projektleiter) bei der Siemens AG gearbeitet. Aktuell arbeitet er als Researcher im Software Quality Lab, einer Forschungseinrichtung der Universität Paderborn. In seiner Promotion beschäftigt er sich mit holistischen Ansätzen für Modellbasiertes Testen von Informationssystemen. Seit 2008 arbeitet er in einem Forschungsprojekt bei Capgemini sd&m Research. Seine Aufgabe ist es eine unternehmensweite Testmethodik zu entwickeln und einzuführen. Der Fokus liegt hierbei insbesondere beim Thema Testspezifikation und dessen Automatisierung. <br><br> <b>Zur Person:</b> Melanie Sauter ist Diplom-Wirtschaftsinformatikerin (FH) und seit 6 Jahren bei Capgemini sd&m in der Softwareentwicklung tätig. Ihre praktischen Erfahrungen im Bereich Testen begannen mit der Programmierung von Entwicklertests auf dem Host in der Rolle der Entwicklerin und reichen bis zum Testmanagement von Großprojekten. Neben der Projektarbeit hat sie Projekte bei der Gestaltung ihrer qualitätssichernden Maßnahmen beraten, an der Erstellung der unternehmensweiten Testmethodik mitgewirkt und ist verantwortlich für die Capgemini sd&m Testmanagement School. <br><br> <b>Dr. Christopher H. Müller, Die Ergonomen Usability AG</b><br> <b>Vortrag: Gut, wenn es funktioniert. Besser, wenn man es auch versteht. Wie werden Benutzeranforderungen erhoben und was bringt´s?</b><br> <b>Abstract:</b> Benutzer- und Tätigkeitsanalysen sind eine unerlässliche Grundlage für die Konzeptarbeit. Kundenwünsche oder technische Anforderungen allein schaffen es nicht, die von den Endbenutzern explizit und lange geäusserten oder auch ganz stumm erwarteten Qualitäten eines neuen Produkts (Software, Hardware, Manual, eLearning etc.) zu beschreiben. Mittels Usability-Tests – Benutzer testen beispielsweise erste Entwürfe oder funktionale Mock-ups der Benutzungsoberfläche – wird die Benutzungsqualität regelmässig beurteilt. Aus den Tests werden konkrete, umsetzbare Optimierungsmassnahmen abgeleitet. Benutzer-Anforderungen sauber und zu Beginn des Projektes zu erheben und regelmässiges Testen mit Benutzervertretern im Projektverlauf hilft, die Projektrisiken zu reduzieren und das Produkt näher an den Kunden zu entwickeln. Die Ergonomen Usability AG berät im gesamten User Centered Design-Prozess: Von den Benutzeranforderungen über die Konzeption von Bedienoberflächen, rapid Prototyping als Teil der Softwarespezifikation, Evaluation der Konzepte im eigenen, vollausgerüsteten Usability-Labor, bis hin zur Umsetzungsbegleitung mit Anleitungen, eLearning und Produktmarketing. Schwerpunkt der Präsentation bilden Praxisbeispiele aus dem Usability-Alltag der Ergonomen.<br> <b>Zur Person:</b> Dr. Christopher H. Müller studierte Umweltnaturwissenschaften an der ETH Zürich mit Vertiefung in Umwelthygiene (Mensch-Umwelt-Beziehung). Dr. Müller promovierte im Jahr 2000 am Institut für Hygiene und Arbeitsphysiologie. 2001 gründete er mit einem Partner ein Spin-off Unternehmen der ETH Zürich; das Usability-Labor der ETH wurde damit sozusagen privatisiert. Im Juni 2009 gründete Dr. Müller Die Ergonomen Usability AG. Das Usability-Beratungsunternehmen bearbeitet Projekte rund um Usability und User Centered Design für Internet, Software, Bedienungsanleitungen, Geräte und überhaupt alles, was ein Benutzer bedienen, verstehen und nutzen soll.<br> <b>Professor Reuss & Dipl-Info Kiefner, FKFS AG</b><br> <b>Vortrag: Automatische Testfallgenerierung unter Einbeziehung der Risikopriorität</b><br> <b>Abstract:</b> Das FKFS hat sich in den letzten Jahren in Kooperation mit einem namhaften Automobilhersteller intensiv mit der Testautomatisierung beschäftigt. Neben den positiven Eigenschaften der Testautomatisierung stellte sich eine Frage in den verschiedenen Teilprojekten immer wieder: Warum haben wir diesen Fehler nicht mit der Testautomatisierung gefunden? Diese Frage tauchte immer in Zusammenhang mit einer bestimmten Art von Fehlern auf. Diese Fehler waren im Testraum, den die Testautomatisierung aufspannt, beinhaltet. Leider wurden die entsprechenden Testfälle auf Grund der Beschränktheit der Testressourcen nicht generiert . In dem Vortrag wird zum einen aufzeigt, warum selbst die beste Testautomatisierung noch blinde Flecken haben wird und zum anderen, wie mit der Einbeziehung von semantischen Informationen insbesondere dem Risiko diese blinden Flecken reduziert werden können.<br>
Zurück zur Seite
20. Oktober 2011
.
Ansichten
Seite
Diskussion
Quelltext anzeigen
Versionen/Autoren
Meine Werkzeuge
Anmelden
Navigation
Hauptseite
Themenportal
Termine
Letzte Änderungen
Zufällige Seite
Hilfe
Suche
Werkzeuge
Links auf diese Seite
Änderungen an verlinkten Seiten
Spezialseiten