30. September 2010
Aus BW-Test
von
30. September 2010
Wechseln zu:
Navigation
,
Suche
==2. Software-Testing-Day Baden-Württemberg - "Test the Best"== <i>Änderungen möglich!!!</i><br><br> <b>Die Veranstaltung wird gesponsert von der Wirtschaftsförderung Stuttgart. [http://opensource.region-stuttgart.de/ Wirtschaftsförderung Stuttgart]</b><br><br> ==Veranstaltungsdaten== Datum: Donnerstag, den 30. September 2010 Beginn: 14:00 Uhr Ort: Werkzentrum Weststadt, Rheinlandstraße 10, D-71636 Ludwigsburg - [http://www.werkzentrum-weststadt.de/kontakt.html Anfahrtsbeschreibung] Übersicht: [http://maps.google.de/maps?q=Werkzentrum+Weststadt&oe=utf-8&rls=org.mozilla:en-US:official&client=firefox-a&um=1&ie=UTF-8&ei=EP0VTM7vEqeTOI6YwYkM&sa=X&oi=mode_link&ct=mode&ved=0CA0Q_AU Google Maps] Wir bitten für unsere Planung um eine kurze formlose Anmeldung. Bitte melden Sie sich bis zum 28. September über die [http://www.asqf.de/fachgruppentermine-anzeige/events/fg-software-testing-day-baden-wuerttemberg-ludwigsburg.1238.html ASQF Veranstaltungsseite] an. Die Teilnahme ist kostenlos. Eine Anmeldebestätigung wird nicht versandt. <br> <br> ==Agenda== ==Agenda== 14:00 Uhr - Begrüßung und Überblick über den Nachmittag<br> <b>14:15 Uhr - Vortrag: Gut, wenn es funktioniert. Besser, wenn man es auch versteht. Wie werden Benutzeranforderungen erhoben und was bringt´s?</b><br> 15:00 Uhr - Diskussion <br> 15:15 Uhr - Pause mit Ausstellung<br> <b>15:30 Uhr - Vortrag: Widerstand gegen Testen (... und wie Tester ihm begegnen)</b><br> 16:15 Uhr - Diskussion <br> 16:30 Uhr - Pause mit Ausstellung <br> <b>16:45 Uhr - Vortrag: Testen in Großprojekten: Probleme, methodisches Vorgehen und Alltag</b><br> 17:30 Uhr - Diskussion <br> <b>17:45 Uhr - Ausstellung</b><br> ca. 19:00 Uhr - Ende<br><br> ==Inhalt und Ziel der Veranstaltung== Das diesjährige Thema: "Test the best", steht ganz im Zeichen verschiedenster Test- und Testmanagementtools. Mit dieser Veranstaltung möchten wir den Bogen von der Testplanung bis zur Testverwaltung spannen. <br> ==Aussteller== - eXept Software AG (expecco/expeccoNET) [http://www.exept.de/ www.exept.de]<br><br> - Hewlett-Packard GmbH (QuickTestProfessional/Quality Center) [http://www.hp.com/de www.hp.com]<br><br> - imbus AG (TestBench/MBT) [http://www.imbus.de/startseite/ www.imbus.de]<br><br> - Logica Deutschland GmbH & Co. KG [http://www.logica.de/ www.logica.de]<br><br> - Microsoft Deutschland GmbH (VisualStudio) [http://www.microsoft.de/ www.microsoft.de]<br><br> - sepp.med GmbH (.mzT/.getmore) [http://www.seppmed.de/ www.seppmed.de]<br><br> - Software Quality Systems AG [http://www.sqs.de/ www.sqs.de]<br><br> - Tricentis Technology & Consulting GmbH (Tosca Testsuite) [http://www.tricentis.com/tosca+M54a708de802.html www.tricentis.com]<br><br> - Verifysoft Technology GmbH (Qtronic/Testwell CTC++/Testwell CMT++/CMTJava/Coverity Prevent) [http://www.verifysoft.com www.verifysoft.com]<br><br> ==Sprecher== <br> <b>Dr. Christopher H. Müller, Die Ergonomen Usability AG</b><br> <b>Vortrag: Gut, wenn es funktioniert. Besser, wenn man es auch versteht. Wie werden Benutzeranforderungen erhoben und was bringt´s?</b><br> <b>Abstract:</b> Benutzer- und Tätigkeitsanalysen sind eine unerlässliche Grundlage für die die Konzeptarbeit. Kundenwünsche oder technische Anfoderungen allein schaffen es nicht, die von den Endbenutzern explizit und lange geäusserten oder auch ganz stumm erwarteten Qualitäten eines neuen Produkts (Software, Hardware, Manual, eLearning etc.) zu beschreiben. Benutzer-Anforderungen sauber und zu Beginn des Projektes zu erheben hilft, die Projektrisiken zu reduzieren und das Produkt näher an den Kunden zu entwickeln.<br><br> <b>Zur Person:</b> <b>Jan Overbeck, ANECON</b><br> <b>Vortrag: Widerstand gegen Testen (... und wie Tester ihm begegnen)</b><br> <b>Abstract:</b> Seit G. Myers 1978 "The Art of Software Testing" geschrieben hat, haben wir viel über Software-Test gelesen und gehört - neue, und verbesserte Methoden, Techniken und Werkzeuge. Alle diese Beiträge zum Stand der Technik im Software-Test sind wichtig und richtig - es hat sich eine Menge entwickelt seit 1978. Aus der täglichen Praxis des Software-Tests in den vergangenen 15 Jahren erscheint mir jedoch ein Aspekt erfolgskritisch, der meines Erachtens zu wenig beleuchtet wurde: der Faktor Mensch. Führt man in einem Projekt oder in einer Organisation Software-Testen ein (oder verbessert man den vorhandenen Testprozess nachhaltig), so löst das bei Menschen in unterschiedlichen Rollen unterschiedliche - meist abwehrende - Reaktionen aus. Die resultierenden Haltungen gegenüber dem Test lassen sich jedoch in konstruktive Haltungen umwandeln. Das Ergebnis ist eine höhere Effizienz im gesamten Projekt, nicht nur im Testen. Erst dann hat Software-Test den Beitrag zum Projekterfolg geleistet, den man sich erwarten darf. Ich werde in diesem Vortrag die typischen "Abwehrreaktionen" und deren mögliche positive "Umwandlung" aufzeigen. Die vom Test betroffenen Rollen, die im Vortrag behandelt werden, sind: Entwickler, zukünftige Anwender, Projektleiter / Projektsteuerungsgremien, Manager und Projektleiter in einem weiteren Aspekt ihrer Tätigkeit.<br> <b>Zur Person:</b> Jan Overbeck hat 1990 das Studium der Informatik an der TU Berlin abgeschlossen. Von 1990 bis 1994 hat er als Assistent an der TU Wien in einem Forschungsprojekt gearbeitet. Seit 1991 beschäftigte er sich mit dem Thema objektorientiertes Testen, und verfasste auch seine Dissertation zu diesem Thema: Integration Testing for Obejct-Oriented Software. Zwischen 1994 und 1998 war er als Berater für objektorientierte Analyse und Projektmanagement in der Firma Servodata in Wien beschäftigt und hat mehrere große österreichische Finanzdienstleister und andere Kunden beraten. 1998 gründete Jan Overbeck mit drei Partnern die Firma ANECON, die sich seit 2001 mit dem Thema Testen beschäftigt. Inzwischen ist die ANECON Österreichs größter Anbieter von Testdienstleistungen. 2010 wurde in Dresden eine deutsche Tochtergesellschaft der ANECON gegründet, Jan Overbeck hat hier die Geschäftsführung übernommen. Jan Overbeck ist seit 1992 (tw. inaktives) Mitglied der Fachgruppe (zunächst Arbeitskreis) TAV Testen, Analysieren und Verifizieren von Software und mit der ANECON Mitglied im ASQF. <br><br> <br> <b>Michael Mlynarski, Universität Paderborn & Kathrin Potzahr, Capgemini sd&m</b><br> <b>Vortrag: Testen in Großprojekten: Probleme, methodisches Vorgehen und Alltag</b><br> <b>Abstract:</b> Gute Software zu entwickeln und zu testenist alles andere als einfach. Bei kleinen bis mittleren Projekten ist die zu testende Funktionalität oft noch überschaubar. Bei Großprojekten mit mehr als 40 Mitarbeitern und sehr komplexen Systemen potenziert sich die Relevanz der typischen Probleme beim Testen: - Am Testen wird oft gespart! Wenn es bei der Entwicklung brennt, dann leidet daran vermehrt das Testbudget.<br> - Spät erkannte Fehler kosten viel Geld! Gerade in Großprojekten beginnt z.B. die Testspezifikation oft viel zu spät.<br> - Aussagen über die Testqualität sind oft nicht möglich! Bestes Beispiel ist das Thema der erreichten Testabdeckung (nicht unbedingt die Abdeckung des Codes).<br> - In den Testteams werden oft juniore Mitarbeiter eingesetzt! Auf eine gezielte Ausbildung wird hierbei keinen Wert gelegt.<br> - Testautomatisierung wird nur für die Komponententests eingesetzt! Selten überlegen sich die Testteams die höheren Teststufen teilweise zu automatisieren.<br> - Das Thema Testdaten wird unterschätzt! Die Qualität der Tests hängt häufig von der Qualität der Testdaten ab. Diese zu Erzeugen kann aber komplizierter sein der eigentliche Testfall.<br> Um diesen und anderen Problemen entgegenzuwirken, haben wir zusammen mit dem Software Quality Lab eine unternehmensweite Testmethodik für Capgemini sd&m entwickelt. Sie besteht aus mehreren Bausteinen, die ein praxisnahes Verfahren für den Einsatz in Projekten bieten. Unterstützt durch Vorlagen, Tools und Best-‐Practices ist es uns gelungen, diese Methodik in mehreren Großprojekten erfolgreich einzusetzen. In unserem Vortrag greifen wir einige der typischenProbleme in Großprojekten auf und stellen Ihnen eine methodische Lösung vor. Das Ganze wird durch konkrete Praxisbeispiele aus Großprojekten ergänzt. Somit können Sie einen Einblick sowohl in die methodische aus auch praktische Seite des Testens in Großprojekten erhalten.<br> <b>Zur Person:</b> Michael Mlynarski hat ein Informatik-‐Masterstudium an der Universität Paderborn abgeschlossen. Während des Studiums hat er in unterschiedlichen Rollen (Entwickler, Tester, Projektleiter) bei der Siemens AG gearbeitet. Aktuell arbeitet er als Researcher im Software Quality Lab, einer Forschungseinrichtung der Universität Paderborn. In seiner Promotion beschäftigt er sich mit holistischen Ansätzen für Modellbasiertes Testen von Informationssystemen. Seit 2008 arbeitet er in einem Forschungsprojekt bei Capgemini sd&m Research. Seine Aufgabe ist es eine unternehmensweite Testmethodik zu entwickeln und einzuführen. Der Fokus liegt hierbei insbesondere beim Thema Testspezifikation und dessen Automatisierung. <br><br> <b>Zur Person:</b> Kathrin Potzahr ist Diplom-‐Informatikerin und seit 12 Jahren bei Capgemini sd&m in der Softwareentwicklung tätig. Ihre praktischen Erfahrungen im Bereich Testen begannen mit selbst programmierten Unit Tests in der Rolle des Entwicklers und reichen bis zum Testmanagement von verschiedenen Großprojekten. Neben der Projektarbeit hat sie die Entwicklung des Testwerkzeugs Proven! maßgeblich unterstützt und war mehrere Jahre verantwortlich für die Capgemini sd&m Testmanagement School. <br><br>
Zurück zur Seite
30. September 2010
.
Ansichten
Seite
Diskussion
Quelltext anzeigen
Versionen/Autoren
Meine Werkzeuge
Anmelden
Navigation
Hauptseite
Themenportal
Termine
Letzte Änderungen
Zufällige Seite
Hilfe
Suche
Werkzeuge
Links auf diese Seite
Änderungen an verlinkten Seiten
Spezialseiten