20. Oktober 2011

Aus BW-Test

Wechseln zu: Navigation, Suche
(Die Seite wurde neu angelegt: „==2. Software-Testing-Day Baden-Württemberg - "Test the Best"== <i>Änderungen möglich!!!</i><br><br> <b>Die Veranstaltung wird gesponsert von der Wirtschaftsf…“)
(Zusammenfassung)
 
Zeile 1: Zeile 1:
-
==2. Software-Testing-Day Baden-Württemberg - "Test the Best"==
+
== 3. Baden-Württemberg Testing Day - "Baden-Württemberg testet"==
<i>Änderungen möglich!!!</i><br><br>
<i>Änderungen möglich!!!</i><br><br>
-
<b>Die Veranstaltung wird gesponsert von der Wirtschaftsförderung Stuttgart. [http://opensource.region-stuttgart.de/ Wirtschaftsförderung Stuttgart]</b><br><br>
+
<b>Die Veranstaltung wird mitveranstaltet von der [http://opensource.region-stuttgart.de/ Wirtschaftsförderung Stuttgart]</b>.<br><br>
==Veranstaltungsdaten==
==Veranstaltungsdaten==
-
Datum: Donnerstag, den 30. September 2010
+
Datum: Donnerstag, den 20. Oktober 2011
-
Beginn: 13:00 Uhr
+
Beginn: 13:30 Uhr
-
Ort: Werkzentrum Weststadt, Rheinlandstraße 10, D-71636 Ludwigsburg  - [http://www.werkzentrum-weststadt.de/kontakt.html Anfahrtsbeschreibung]
+
Ort: Congress Center Siemens, Weissacher Str. 11, 70499 Stuttgart - Übersicht: [http://maps.google.de/maps?q=Weissacher+Stra%C3%9Fe+11,+Stuttgart&hl=de&ie=UTF8&sll=51.151786,10.415039&sspn=16.181051,36.123047&z=16 Google Maps]
-
Übersicht: [http://maps.google.de/maps?q=Werkzentrum+Weststadt&oe=utf-8&rls=org.mozilla:en-US:official&client=firefox-a&um=1&ie=UTF-8&ei=EP0VTM7vEqeTOI6YwYkM&sa=X&oi=mode_link&ct=mode&ved=0CA0Q_AU Google Maps]
+
<br>Wir bitten für unsere Planung um eine kurze formlose Anmeldung. Bitte melden Sie sich bis zum 17. Oktober über die [https://www.asqf.de/fachgruppentermine-anzeige/events/id-20102011-fg-software-test-baden-wuerttemberg-stuttgart.html ASQF Veranstaltungsseite] an. Die Teilnahme ist kostenlos. Eine Anmeldebestätigung wird nicht versandt.  
-
 
+
-
Wir bitten für unsere Planung um eine kurze formlose Anmeldung. Bitte melden Sie sich bis zum 28. September über die [http://www.asqf.de/fachgruppentermine-anzeige/events/fg-software-testing-day-baden-wuerttemberg-ludwigsburg.1238.html ASQF Veranstaltungsseite] an. Die Teilnahme ist kostenlos. Eine Anmeldebestätigung wird nicht versandt.
+
-
<br>
+
<br>
<br>
==Agenda==
==Agenda==
-
13:00 Uhr - Registrierung mit Imbiss<br>
+
 
-
<b>13:30 Uhr - Vortrag: Widerstand gegen Testen (… und wie Tester ihm begegnen)</b><br>
+
{| class="wikitable"
-
<b>14:30 Uhr - Vortrag: Testen in Großprojekten: Probleme, methodisches Vorgehen und Alltag</b><br>
+
|- class="hintergrundfarbe5"
-
15:30 Uhr - Kaffeepause mit Ausstellung & Workshops <br>
+
! Uhrzeit !! Track 1 !! Track 2
-
<b>16:30 Uhr - Vortrag: Gut, wenn es funktioniert. Besser, wenn man es auch versteht. Wie werden Benutzeranforderungen erhoben und was bringt´s?</b><br>
+
|-
-
<b>17:30 Uhr - Vortrag: Automatische Testfallgenerierung unter Einbeziehung der Risikopriorität</b><br>
+
| 13:30 || Registrierung mit Imbiss
-
18:30 Uhr - Afterwork-Drink mit Ausstellung<br><br>
+
|-
 +
| 14:00 || <b>Keynote - Testen von Software - systematisch oder agil?</b>
 +
|-
 +
| 15:00 || <b>Requirement und Test – die eineiigen Zwillinge des Projekterfolges </b> || <b>Continuous Integration in der Praxis </b>
 +
|-
 +
| 15:45 || Pause mit Ausstellung
 +
|-
 +
| 16:15 || <b>10 vermeintliche Gründe, MBT nicht zu verwenden</b> || <b>CAT – Der Certified Agile Tester</b>
 +
|-
 +
| 17:00 || Pause mit Ausstellung
 +
|-
 +
| 17:30 || <b>Aufbau eines Competence-Centers Testen</b> || <b>Qualitätsmanagement in der agilen Software-Entwicklung: Zusätzliche Chancen wahrnehmen</b>
 +
|-
 +
| 18:15 || Afterwork-Drink mit Ausstellung & Verlosung
 +
|}
==Inhalt und Ziel der Veranstaltung==
==Inhalt und Ziel der Veranstaltung==
-
Das diesjährige Thema: "Test the best", steht ganz im Zeichen verschiedenster Test- und Testmanagementtools. Mit dieser Veranstaltung soll der Bogen von der Testplanung bis zur Testverwaltung gespannt werden.
+
 
 +
Von der Anforderungsdefinition bis zur Testausführung.
Zeile 33: Zeile 45:
==Aussteller==
==Aussteller==
-
- eXept Software AG (expecco/expeccoNET)  [http://www.exept.de/ www.exept.de]<br><br>
+
- ASQF - Arbeitskreis Software-Qualität und -Fortbildung e.V. [http://www.asqf.de/ www.asqf.de]<br><br>
-
- GFB Softwareentwicklungsgesellschaft mbH (Q-up) [http://www.gfb-softwareentwicklung.com/Produkte.html/ www.gfb-softwareentwicklung.com]<br><br>
+
- eXept Software AG (expecco/expeccoNET) [http://www.exept.de/ www.exept.de]<br><br>
-
- Hewlett-Packard GmbH (QuickTestProfessional/Quality Center)  [http://www.hp.com/de www.hp.com]<br><br>
+
- Díaz & Hilterscheid Unternehmensberatung GmbH [http://www.diazhilterscheid.de/ www.diazhilterscheid.de]<br><br>
- imbus AG (TestBench/MBT)  [http://www.imbus.de/startseite/ www.imbus.de]<br><br>
- imbus AG (TestBench/MBT)  [http://www.imbus.de/startseite/ www.imbus.de]<br><br>
 +
- iSQI - International Software Quality Institute [https://www.isqi.org/ www.isqi.org]<br><br>
 +
- GFB Softwareentwicklungsgesellschaft mbH (Q-up) [http://www.gfb-softwareentwicklung.com/Produkte.html/ www.gfb-softwareentwicklung.com]<br><br>
- Logica Deutschland GmbH & Co. KG  [http://www.logica.de/ www.logica.de]<br><br>
- Logica Deutschland GmbH & Co. KG  [http://www.logica.de/ www.logica.de]<br><br>
-
- Microsoft Deutschland GmbH (VisualStudio)  [http://www.microsoft.de/ www.microsoft.de]<br><br>
+
- Software.Process.Management [http://www.swpm.de/ www.swpm.de]<br><br>
- sepp.med GmbH (.mzT/.getmore)  [http://www.seppmed.de/ www.seppmed.de]<br><br>
- sepp.med GmbH (.mzT/.getmore)  [http://www.seppmed.de/ www.seppmed.de]<br><br>
-
- Software Quality Systems AG  [http://www.sqs.de/ www.sqs.de]<br><br>
 
- Tricentis Technology & Consulting GmbH (Tosca Testsuite) [http://www.tricentis.com/tosca+M54a708de802.html www.tricentis.com]<br><br>
- Tricentis Technology & Consulting GmbH (Tosca Testsuite) [http://www.tricentis.com/tosca+M54a708de802.html www.tricentis.com]<br><br>
-
- Verifysoft Technology GmbH (Qtronic/Testwell CTC++/Testwell CMT++/CMTJava/Coverity Prevent)  [http://www.verifysoft.com www.verifysoft.com]<br><br>
+
- Wirtschaftsförderung Region Stuttgart GmbH [http://www.wrs.region-stuttgart.de/ www.wrs.region-stuttgart.de]<br><br>
==Sprecher==
==Sprecher==
-
<br>
 
-
<b>Jan Overbeck, ANECON</b><br>
 
-
<b>Vortrag: Widerstand gegen Testen (... und wie Tester ihm begegnen)</b><br>
 
-
<b>Abstract:</b>
 
-
Seit G. Myers 1978 "The Art of Software Testing" geschrieben hat, haben wir viel über Software-Test gelesen und gehört - neue, und verbesserte Methoden, Techniken und Werkzeuge. Alle diese Beiträge zum Stand der Technik im Software-Test sind wichtig und richtig - es hat sich eine Menge entwickelt seit 1978. Aus der täglichen Praxis des Software-Tests in den vergangenen 15 Jahren erscheint mir jedoch ein Aspekt erfolgskritisch, der meines Erachtens zu wenig beleuchtet wurde: der Faktor Mensch. Führt man in einem Projekt oder in einer Organisation Software-Testen ein (oder verbessert man den vorhandenen Testprozess nachhaltig), so löst das bei Menschen in unterschiedlichen Rollen unterschiedliche - meist abwehrende - Reaktionen aus. Die resultierenden Haltungen gegenüber dem Test lassen sich jedoch in konstruktive Haltungen umwandeln. Das Ergebnis ist eine höhere Effizienz im gesamten Projekt, nicht nur im Testen. Erst dann hat Software-Test den Beitrag zum Projekterfolg geleistet, den man sich erwarten darf. Ich werde in diesem Vortrag die typischen "Abwehrreaktionen" und deren mögliche positive "Umwandlung" aufzeigen.
 
-
Die vom Test betroffenen Rollen, die im Vortrag behandelt werden, sind: Entwickler, zukünftige Anwender, Projektleiter / Projektsteuerungsgremien, Manager und Projektleiter in einem weiteren Aspekt ihrer Tätigkeit.<br>
 
-
<b>Zur Person:</b> Jan Overbeck hat 1990 das Studium der Informatik an der TU Berlin abgeschlossen. Von 1990 bis 1994 hat er als Assistent an der TU Wien in einem Forschungsprojekt gearbeitet. Seit 1991 beschäftigte er sich mit dem Thema objektorientiertes Testen, und verfasste auch seine Dissertation zu diesem Thema: Integration Testing for Obejct-Oriented Software.
+
===Keynote: Testen von Software - systematisch oder agil?===
-
Zwischen 1994 und 1998 war er als Berater für objektorientierte Analyse und Projektmanagement in der Firma Servodata in Wien beschäftigt und hat mehrere große österreichische Finanzdienstleister und andere Kunden beraten. 1998 gründete Jan Overbeck mit drei Partnern die Firma ANECON, die sich seit 2001 mit dem Thema Testen beschäftigt. Inzwischen ist die ANECON Österreichs größter Anbieter von Testdienstleistungen. 2010 wurde in Dresden eine deutsche Tochtergesellschaft der ANECON gegründet, Jan Overbeck hat hier die Geschäftsführung übernommen. Jan Overbeck ist seit 1992 (tw. inaktives) Mitglied der Fachgruppe (zunächst Arbeitskreis) TAV Testen, Analysieren und Verifizieren von Software und mit der ANECON Mitglied im ASQF. <br>
+
 
 +
Prof. Dr. Andreas Spillner (Hochschule Bremen)
 +
 
 +
====Zusammenfassung====
 +
Im Vortrag werden die Vorgehensweisen beim Systematischen Testen mit einem entsprechenden Testprozess und dessen Einordnung im Softwareentwicklungsprozess erörtert. Dem werden das Agile Testen, die dortigen Vorgehensweisen und die Verbindung zu den übrigen Entwicklungstätigkeiten gegenübergestellt. Im zweiten Teil des Vortrags werden Teilergebnisse einer anonyme Online-Umfrage zum Softwaretest in der Praxis vom Mai 2011 vorgestellt. Welche Testansätze werden von wem in der Praxis eingesetzt, systematisches oder agiles Testen? Wie sehen die Entwicklungs- und Testprozesse aus?
 +
 
 +
 
 +
===Vortrag: "Requirement und Test – die eineiigen Zwillinge des Projekterfolges"===
 +
 
 +
Gabriele Frenzel (PRO OPT SERVICE MANAGEMENT GmbH & Co. KG)
 +
 
 +
====Zusammenfassung====
 +
Eigentlich ist es bekannt, dass ein gutes Requirements Engineering von Anfang an sowie ein strukturierter Test für ein erfolgreiches Projekt unerlässlich sind. Dennoch gibt es immer wieder Projekte, in dem eine der beiden Tätigkeiten oder auch beide aus Kostengründen „eingespart“ wird. Der Vortrag zeigt anhand von verschiedenen Projekterfahrungsberichten, wie die enge Verzahnung von beiden  Engineering Tätigkeiten – Requirement und Test -  maßgeblich den Projekterfolg gesichert hat – oder eben auch zu dem nicht ganz so erfolgreichen Projektabschluss beigetragen hat.
 +
 
 +
 
 +
===Vortrag: "Continuous Integration in der Praxis"===
 +
 
 +
Dirk Haun (Compart AG)
 +
 
 +
====Zusammenfassung====
 +
Darüber, dass Continuous Integration (CI) eine gute Idee ist, herrscht soweit Einigkeit. Doch wie gut funktioniert CI tatsächlich in der Praxis? Vor allem, wenn man viele Entwickler hat oder viele verschiedene Plattformen unterstützt?
 +
In diesem Vortrag werden am Beispiel eines "mittelgroßen" CI-Setups einige der Probleme und Herausforderungen diskutiert, darunter Skalierung sowie Visualisierung des Systemzustands.
 +
 
 +
 
 +
===Vortrag: "10 vermeintliche Gründe, MBT nicht zu verwenden"===
 +
 
 +
Dr. Martin Beißer (sepp.med GmbH)
 +
 
 +
====Zusammenfassung====
 +
Seit einigen Jahren wird modellbasiertes Testen intensiv diskutiert, die Vorteile werden nicht bestritten, trotzdem kommt diese Methodik erstaunlich wenig zum Einsatz. Woran liegt das? Wir haben die am häufigsten genannten Gründe, warum MBT nicht eingesetzt wird, gesammelt:
 +
 
 +
1. Wenn man Entwicklungsmodelle nicht nutzen kann, lohnt es nicht
 +
2. Wir arbeiten nicht mit UML
 +
3. Die Modelle sind zu unübersichtlich
 +
4. Unsere Tester könne nicht modellieren
 +
5. Unser Produkt ist zu komplex
 +
6. Noch ein Werkzeug
 +
7. Der Einführungsaufwand ist zu groß
 +
8. Zusätzlicher Aufwand für die Wartung der Modelle
 +
9. Es gibt für Modelle kein vernünftiges Konfigurationsmanagement
 +
10. Es fehlen Modellierungsrichtlinien
 +
 
 +
Natürlich sind alle diese Einwände berechtigt und nicht sofort von der Hand zu weisen. Dieser Vortrag zeigt, dass sich in vielen Fällen eine gute Antwort finden lässt, die es erlaubt, die Vorteile zu Nutzen, ohne die Nachteile in Kauf nehmen zu müssen.
 +
 
 +
 
 +
 
 +
===Vortrag: "CAT – Der Certified Agile Tester"===
 +
 
 +
Jana Noack (iSQI GmbH)
 +
 
 +
====Zusammenfassung====
 +
Der wachsenden Zahl agiler Projekte steht nur eine kleine Gruppe bereits agil erfahrener Praktiker gegenüber. Dazu kommt ein Mangel an geeigneten Fortbildungsangeboten – die meisten fußen auf abstrakter theoretischer Vermittlung dieser praxisnahen und kontextabhängigen Vorgehensweise. Besonders für Softwaretester offenbart ein Blick auf die vorhandenen Schulungen die klaffende Lücke zwischen Anforderung und Angebot: Bisher gab es keine Ausbildung, die sie auf die Anforderungen agiler Projekte vorbereitet.
 +
In enger Zusammenarbeit mit führende IT-Unternehmen entwickelte das International Software Quality Institute (iSQI GmbH) daher „Certified Agile Tester“. Das Schulungs- und Zertifizierungsprogramm baut auf drei Prämissen:<br>
 +
- agile Projekte benötigen eine gemeinsame Sprache, Struktur und Disziplin<br>
 +
- Praxis und Erfahrungswerte stehen im Vordergrund<br>
 +
- ein Konsens über die Methoden ist der Schlüssel zum Erfolg<br>
 +
Die Herausforderungen in der Arbeit als agiler Tester werden in „Certified Agile Tester“ aufgegriffen. Teilnehmer lernen in der Fortbildung konkret und fundiert, wie Sie agile Prinzipien in ihren Workflow integrieren und sich den Herausforderungen erfolgreich stellen.<br>
 +
In dem Vortrag beschreibt Jana Noack, Geschäftsführerin des iSQI, aus welchen theoretischen und praktischen Bestandteilen sich die Aus- und Weiterbildung zum „Certified Agile Tester“ zusammensetzt, warum eine gemeinsame Methodologie auch in agilen Projekten von zentraler Wichtigkeit ist – und wie mit der Zertifizierungsprüfung zum „Certified Agile Tester“ die Eigenheiten agiler Methoden mit den Vorteilen von Standardisierung harmonisch vereint werden.
 +
 
 +
 
 +
 
 +
===Vortrag: "Aufbau eines Competence-Centers Testen"===
 +
Sonja Schäfer (Bausparkasse Schwäbisch Hall)
-
<b>Michael Mlynarski, Universität Paderborn & Melanie Sauter, Capgemini sd&m</b><br>
+
====Zusammenfassung====
-
<b>Vortrag: Testen in Großprojekten: Probleme, methodisches Vorgehen und Alltag</b><br>
+
In Audits wurde das Testvorgehen im Hause der Bausparkasse Schwäbisch Hall AG und deren Tochterunternehmen VR Kreditwerk AG geprüft und Weiterentwicklungspotentiale identifiziert. Die daraus abgeleiteten Maßnahmen wurden in einem Projekt mit dem Titel "Aufbau des Competence-Center Testen" gebündelt und befinden sich seit Anfang 2010 in der Umsetzung. Die Einführung der angepaßten Testmethodik und der damit verbundenen Werkzeuge wird bis Mitte des Jahres 2013 andauern. Wichtigste Erkenntnis zum aktuellen Zeitpunkt ist der positive Effekt der gewählten Einführungsform: Aktiv wird die neuen Methodik in den Projekten geschult und die Mitarbeiter durch Coaching unterstützt.
-
<b>Abstract:</b>
+
-
Gute Software zu entwickeln und zu testenist alles andere als einfach. Bei kleinen bis mittleren Projekten ist die zu testende Funktionalität oft noch überschaubar. Bei Großprojekten mit mehr als 40 Mitarbeitern und sehr komplexen Systemen potenziert sich die Relevanz der typischen Probleme beim Testen:
+
-
- Am Testen wird oft gespart! Wenn es bei der Entwicklung brennt, dann leidet daran vermehrt das Testbudget.<br>
 
-
- Spät erkannte Fehler kosten viel Geld! Gerade in Großprojekten beginnt z.B. die Testspezifikation oft viel zu spät.<br>
 
-
- Aussagen über die Testqualität sind oft nicht möglich! Bestes Beispiel ist das Thema der erreichten Testabdeckung (nicht unbedingt die Abdeckung des Codes).<br>
 
-
- In den Testteams werden oft juniore Mitarbeiter eingesetzt! Auf eine gezielte Ausbildung wird hierbei keinen Wert gelegt.<br>
 
-
- Testautomatisierung wird nur für die Komponententests eingesetzt! Selten überlegen sich die Testteams die höheren Teststufen teilweise zu automatisieren.<br>
 
-
- Das Thema Testdaten wird unterschätzt! Die Qualität der Tests hängt häufig von der Qualität der Testdaten ab. Diese zu Erzeugen kann aber komplizierter sein der eigentliche Testfall.<br>
 
-
Um diesen und anderen Problemen entgegenzuwirken, haben wir zusammen mit dem Software Quality Lab eine unternehmensweite Testmethodik für Capgemini sd&m entwickelt. Sie besteht aus mehreren Bausteinen, die ein praxisnahes Verfahren für den Einsatz in Projekten bieten. Unterstützt durch Vorlagen, Tools und Best-­‐Practices ist es uns gelungen, diese Methodik in mehreren Großprojekten erfolgreich einzusetzen.
 
-
In unserem Vortrag greifen wir einige der typischenProbleme in Großprojekten auf und stellen Ihnen eine methodische Lösung vor.
 
-
Das Ganze wird durch konkrete Praxisbeispiele aus Großprojekten ergänzt. Somit können Sie einen Einblick sowohl in die methodische aus auch praktische Seite des Testens in Großprojekten erhalten.<br>
 
-
<b>Zur Person:</b> Michael Mlynarski hat ein Informatik-­‐Masterstudium an der Universität Paderborn abgeschlossen. Während des Studiums hat er in unterschiedlichen Rollen (Entwickler, Tester, Projektleiter) bei der Siemens AG gearbeitet. Aktuell arbeitet er als Researcher im Software Quality Lab, einer Forschungseinrichtung der Universität Paderborn. In seiner Promotion beschäftigt er sich mit holistischen Ansätzen für Modellbasiertes Testen von Informationssystemen. Seit 2008 arbeitet er in einem Forschungsprojekt bei Capgemini sd&m Research. Seine Aufgabe ist es eine unternehmensweite Testmethodik zu entwickeln und einzuführen. Der Fokus liegt hierbei insbesondere beim Thema Testspezifikation und dessen Automatisierung. <br><br>
+
===Vortrag: "Qualitätsmanagement in der agilen Software-Entwicklung: Zusätzliche Chancen wahrnehmen"===
-
<b>Zur Person:</b> Melanie Sauter ist Diplom-Wirtschaftsinformatikerin (FH) und seit 6 Jahren bei Capgemini sd&m in der Softwareentwicklung tätig. Ihre praktischen Erfahrungen im Bereich Testen begannen mit der Programmierung von Entwicklertests auf dem Host in der Rolle der Entwicklerin und reichen bis zum Testmanagement von Großprojekten. Neben der Projektarbeit hat sie Projekte bei der Gestaltung ihrer qualitätssichernden Maßnahmen beraten, an der Erstellung der unternehmensweiten Testmethodik mitgewirkt und ist verantwortlich für die Capgemini sd&m Testmanagement School. <br><br>
+
-
<b>Dr. Christopher H. Müller, Die Ergonomen Usability AG</b><br>
+
Dr. Andreas Birk & Gerald Heller (Software.Process.Management)
-
<b>Vortrag: Gut, wenn es funktioniert. Besser, wenn man es auch versteht. Wie werden Benutzeranforderungen erhoben und was bringt´s?</b><br>
+
-
<b>Abstract:</b>
+
-
Benutzer- und Tätigkeitsanalysen sind eine unerlässliche Grundlage für die Konzeptarbeit. Kundenwünsche oder technische Anforderungen allein schaffen es nicht, die von den Endbenutzern explizit und lange geäusserten oder auch ganz stumm erwarteten Qualitäten eines neuen Produkts (Software, Hardware, Manual, eLearning etc.) zu beschreiben.
+
-
Mittels Usability-Tests – Benutzer testen beispielsweise erste Entwürfe oder funktionale Mock-ups der Benutzungsoberfläche – wird die Benutzungsqualität regelmässig beurteilt. Aus den Tests werden konkrete, umsetzbare Optimierungsmassnahmen abgeleitet.
+
-
Benutzer-Anforderungen sauber und zu Beginn des Projektes zu erheben und regelmässiges Testen mit Benutzervertretern im Projektverlauf hilft, die Projektrisiken zu reduzieren und das Produkt näher an den Kunden zu entwickeln.
+
-
Die Ergonomen Usability AG berät im gesamten User Centered Design-Prozess: Von den Benutzeranforderungen über die Konzeption von Bedienoberflächen, rapid Prototyping als Teil der Softwarespezifikation, Evaluation der Konzepte im eigenen, vollausgerüsteten Usability-Labor, bis hin zur Umsetzungsbegleitung mit Anleitungen, eLearning und Produktmarketing.
+
-
Schwerpunkt der Präsentation bilden Praxisbeispiele aus dem Usability-Alltag der Ergonomen.<br>
+
-
<b>Zur Person:</b> Dr. Christopher H. Müller studierte Umweltnaturwissenschaften an der ETH Zürich mit Vertiefung in Umwelthygiene (Mensch-Umwelt-Beziehung). Dr. Müller promovierte im Jahr 2000 am Institut für Hygiene und Arbeitsphysiologie. 2001 gründete er mit einem Partner ein Spin-off Unternehmen der ETH Zürich; das Usability-Labor der ETH wurde damit sozusagen privatisiert.
+
====Zusammenfassung====
-
Im Juni 2009 gründete Dr. Müller Die Ergonomen Usability AG. Das Usability-Beratungsunternehmen bearbeitet Projekte rund um Usability und User Centered Design für Internet, Software, Bedienungsanleitungen, Geräte und überhaupt alles, was ein Benutzer bedienen, verstehen und nutzen soll.<br>
+
Agile Entwicklung ist in vielen Bereichen der Software- und Systementwicklung angekommen. So werden heute nicht nur Webanwendungen agil entwickelt, sondern auch große IT-Informationssysteme und eingebettete Software.
 +
Dieser Vortrag zeigt, wo die agile Entwicklung neue Chancen für das Qualitätsmanagement bietet. Schon die Prinzipien und Praktiken agiler Entwicklung bringen hier Einiges mit: Test-Driven Development, iterative Entwicklung und Testautomatisierung sind wesentliche Bausteine. Allerdings steht üblicherweise nur ein einzelnes Team im Fokus. Bei größeren Entwicklungsprojekten müssen auch Testaufgaben über mehrere Teams koordiniert werden.
-
<b>Professor Reuss & Dipl-Info Kiefner, FKFS AG</b><br>
+
Das Qualitätsmanagement muss im agilen Umfeld stärker mit der Entwicklung zusammenarbeiten und zugleich neue zentrale Kompetenzen und Dienstleistungen entwickeln. Auch die QM-Aufgaben in einer hybriden Umgebung mit agilen und nicht-agilen Projekten müssen gemeistert werden. Beispiele aus der industriellen Praxis demonstrieren, welche Vorgehensweisen sich bewährt haben, und welche Rolle der unterstützende Werkzeugeinsatz spielt.
-
<b>Vortrag: Automatische Testfallgenerierung unter Einbeziehung der Risikopriorität</b><br>
+
-
<b>Abstract:</b>
+
-
Das FKFS hat sich in den letzten Jahren in Kooperation mit einem namhaften
+
-
Automobilhersteller intensiv mit der Testautomatisierung beschäftigt. Neben den positiven
+
-
Eigenschaften der Testautomatisierung stellte sich eine Frage in den verschiedenen
+
-
Teilprojekten immer wieder: Warum haben wir diesen Fehler nicht mit der
+
-
Testautomatisierung gefunden?
+
-
Diese Frage tauchte immer in Zusammenhang mit einer bestimmten Art von Fehlern auf.
+
-
Diese Fehler waren im Testraum, den die Testautomatisierung aufspannt, beinhaltet. Leider
+
-
wurden die entsprechenden Testfälle auf Grund der Beschränktheit der Testressourcen nicht
+
-
generiert . In dem Vortrag wird zum einen aufzeigt, warum selbst die beste
+
-
Testautomatisierung noch blinde Flecken haben wird und zum anderen, wie mit der
+
-
Einbeziehung von semantischen Informationen insbesondere dem Risiko diese blinden
+
-
Flecken reduziert werden können.<br>
+

Aktuelle Version vom 13. Oktober 2011, 08:38 Uhr