Главная страница

Вопросы объединения процессов тестирования и кадрового обеспечения 142 Часть П. Технологии быстрого тестирования и советы 159


Скачать 4.53 Mb.
НазваниеВопросы объединения процессов тестирования и кадрового обеспечения 142 Часть П. Технологии быстрого тестирования и советы 159
АнкорKalbertson
Дата24.02.2022
Размер4.53 Mb.
Формат файлаpdf
Имя файлаKalbertson.pdf
ТипЛитература
#372680
страница40 из 40
1   ...   32   33   34   35   36   37   38   39   40

Глава 16. Пример сводного отчета по системным испытаниям 369
k
На приемочные испытания или
выпуск программного продукта
Рис. 16.1. Обзор системных испытаний
Сводный отчет по тестированию не обязательно включает детализованные ре­
зультаты прогона каждого теста, однако, он может содержать ссылки на эти результа­
ты в случае, если они были скомпилированы и архивированы. Сбор и архивирование всех результатов тестирования — это одно из преимуществ коммерческого инстру­
ментария управления процессом тестирования. Если в результате применения по­
добного инструментария все тесты объединяются в рамках одного документа, свод­
ный отчет по тестированию будет содержать ссылки на этот документ.
В оставшейся части главы приводится пример сводного отчета по тестированию.
Обратите внимание на то, что в этом примере содержатся элементы, которые могут использоваться в других отчетах. Такими элементами, в частности, являются:
• Отчет о состоянии тестирования.
• Отчет об открытых ошибках.
• Сводка по обнаруженным ошибкам по степени их серьезности.


Сводный отчет по тестированию ТМТ
TMT-TPS-10
Идентификатор документа: TMT-TSR-10
Версия: 0.2
Авторы: Джеймс Барнс (James Barnes)
Набор инструментальных средств управления тестированием
Версия 1.0
Сводный отчет по тестированию
Хронология версий
Версия
0.1 0.2
Дата
12/02/2001 12/03/2001
Автор
Дж. Барнс
Дж. Барнс
Описание
Описание результатов тестирования
Изменения, основанные на пересмотрах
Утверждено
Тестирования
Брит Гейтер (Bret Gater), менеджер отдела тестирования
Дата утверждения
12/03/2001 370

Сводный отчет по тестированию ТМТ
TMT-TPS-10
Содержание
1. Введение 371
2. Сводка по результатам тестирования 371
3. Свойства, которые должны тестироваться 375
4. Свойства, которые не должны тестироваться 375
5. Отклонения от плана тестирования 376
6. Соблюдение графика 376
7. Ссылки 376
Приложение 1 — Список аббревиатур 376
Приложение 2 — Определение терминов 376
Приложение 3 — Сообщения электронной почты от утверждающих лиц 376
От: Брит Гейтер (Bret Gater) [bgater@tmtco.com] 376
1. Введение
Назначение этого документа заключается в представлении отчета о результатах системных испыта­
ний набора инструментальных средств управления тестированием (Test Management Toolkit, ТМТ).
Тесты производились в соответствии с документом "Набор инструментальных средств управления тестированием, План тестирования": http://www.tmtcointernal.com/usr/www/docstores/desion/Dlans/TMT-TP-10.doc.
Свойства, на которые производятся ссылки в этом документе, находятся в документе определения требований, именуемого "Набор инструментальных средств управления тестированием, Определе­
ние требований": httD://www.tmtcointernal.com/usr/www/docstores/desian/reauirements^MT-RD-10.doc.
2. Сводка по результатам тестирования
Три завершенных цикла тестирования, которые были проведены для профаммного продукта ТМТ, на
100% реализуют комбинированное тестирование системы. К моменту прогона заключительного теста было пройдено 95% тестов, причем катастрофические ошибки обнаружены не были. Используя по­
лученные результаты, команда тестирования рекомендует утвердить выпуск этого программного продукта.
Сводка по ошибкам, остающимся актуальными к концу тестирования, приводится в таблице 2.2.
Накопительная сводка по ошибкам, найденным во время тестирования профаммного продукта ТМТ, показана в таблице 2.3. Сводка по ошибкам также представлена в виде гистограммы на рис. 3.1.
371

Сводный отчет по тестированию Т М Т TMT-TPS-10
Таблица 2.1. Отчет о состоянии тестирования
Тестовый набор
3.1.1. Пользовательский интерфейс
3.1.2. Навигация
3.1.3. Аутентификация пользователей — клиент
3.1.4. Аутентификация пользователей — администратор
3.1.5. Текущие проекты
3.1.6. Завершенные проекты
3.1.7. Создание проекта
3.1.8. Изменение проекта
3.1.9. Удаление проекта
3.1.10. Создать тестовый случай или набор
3.1.11. Измени тестовый случай или набор
3.1.12. Удалить тестовый случай или набор
3.1.13. Показать тест
3.1.14. Показать тестовый набор
3.1.15. Прогнать одиночный тест
3.1.16. Прогнать тестовый набор
3.1.17. Сводный отчет по ошибкам
3.1.18. Результаты тестирования/Одиночный тест
3.1.19. Результаты тестирования/Тестовый набор
3.1.20. Создать матрицу прослеживаемости
3.1.21. Резервное копированиеЯестовые случаи
3.1.22. Резервное копирование/Тестовые наборы
# тестов
20
25
12 12
15
15
12 12
12
15
15
15
10
10
10 10
12
15
15
10
12
12
# про­
шедших
18
24
12 12
15
15
12 12
12
15
15
15
10 10
10
10 11
15
15
9
12
12
# непро­
шедших
2
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
0
# не вы­
полненных
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
% выпол­
ненных
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
372

Сводный отчет по тестированию ТМТ
TMT-TPS-10
Окончание табл. 2.1
Тестовый набор
3.1.23. Резервное копирование/Результаты прогона тестов
3.1.24. Восстановление/
Тестовые случаи
3.1.25. Восстановление/
Тестовые наборы
3.1.26. Восстановление/
Результаты прогона тестов
3.1.27. Экспорт/Тестовые случаи
3.1.28. Экспорт/Тестовые наборы
3.1.29. Экспорт/Результаты
прогона тестов
3.1.30. Справка
3.1.31. Многопользователь­
ские функциональные возможности
# тестов
12 12 12 12 12 12 12
18
10 408
# про­
шедших
12 12 12 12 11 11 11
18
10
400
# непро­
шедших
0
0
0
0
1
1
1
0
0
8
# не вы­
полненных
0
0
0
0
0
0
0
0
0
0
% выпол­
ненных
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
373

Сводный отчет по тестированию ТМТ TMT-TPS-10
Таблица 2.2. Отчет об открытых ошибках
Инструментарий по управлению тестированием
Сводка по открытым ошибках
Дата просмотра: 30-11-02
Посетители
Иденти­
фикатор
ошибки
В3.1.1А
В3.1.1В
ВЗ.1.2
ВЗ.1.16
ВЗ.1.19
ВЗ.1.26
ВЗ.1.27
ВЗ.1.28
Состояние
Назначено
Назначено
Назначено
Назначено
Назначено
Назначено
Назначено
Назначено
Серьез­
ность
Малая
Малая
Малая
Малая
Малая
Большая
Большая
Большая
Дата обна­
ружения
15-10-01 16-10-01 17-10-01 20-10-01 22-10-0.1 01-11-01 01-11-01 01-11-01
Сводка по ошибке
Ошибка в метке поля "Test
Identifier". Tset Identifier
Ошибка в метке поля "Test
Name". *Test Nnme
Пропущена метка меню "Utility Menu"
Наложение полей Pass
(Пройдено) и Fail (Сбой)
Попытка выбора матрицы трассировки в корневом каталоге. Должен быть каталог /Trace
При экспорте "Test Case"
(Тестовый случай) данные оказываются разрушенными
При экспорте "Test Suite"
(Тестовый набор) данные оказываются разрушенными
При экспорте "Test Result"
(Результаты прогона тестов) данные оказываются разрушенными
Действие
Исправлено в 1.0
Исправлено в 1.0
Исправлено в 1.0
Исправлено в 1.0
Исправлено в 1.0
Отложено до версии
1.1
Отложено до версии
1.1
Отложено до версии
1.1
Примечания: ВЗ.1.26, ВЗ.1.27 и ВЗ.1.28 — для решения проблемы требуются архитектурные изменения, которые будут выполнены в следующей версии программы
Таблица 2.3. Сводка по ошибкам, найденным во время тестирования
Катастрофические
Крупные
Мелкие
Неделя 1
5
6
25
Неделя 2
6
7
32
Неделя 3
4
5
18
Неделя 4
4
4
7
Неделя 5
2
3
3
Неделя 6
0
0
2
374

Сводный отчет по тестированию ТМТ
TMT-TPS-10
3. Свойства, которые должны тестироваться
С целью обеспечения гарантии того, что программный продукт ТМТ удовлетворяет требованиям, указанным в спецификации требований ТМТ, были протестированы следующие свойства:
• Требование 3.1.1. Пользовательский интерфейс
• Требование 3.1.2. Навигация
• Требование 3.1.3. Аутентификация пользователей — клиент
• Требование 3.1.4. Аутентификация пользователей — администратор
• Требование 3.1.5. Текущие проекты
• Требование 3.1.6. Завершенные проекты
• Требование 3.1.7. Создание нового проекта
• Требование 3.1.8. Изменение проекта
• Требование 3.1.9. Удаление проекта
• Требование 3.1.10. Создание тестового случая или набора
• Требование 3.1.11. Изменение тестового случая или набора
• Требование 3.1.12. Удаление тестового случая или набора
• Требование 3.1.13. Отображение теста
• Требование 3.1.14. Отображение тестового набора
• Требование 3.1.15. Прогон одиночного теста
• Требование 3.1.16. Прогон тестового набора
• Требование 3.1.17. Создание списка прогона
• Требование 3.1.18. Выполнение списка прогона
• Требование 3.1.19. Сводный отчет по ошибкам
• Требование 3.1.20. Результаты тестирования — одиночный тест
• Требование 3.1.21. Результаты тестирования — тестовый набор или список прогона
• Требование 3.1.22. Создание матрицы прослеживаемости
• Требование 3.1.23. Резервное копирование тестовых случаев
• Требование 3.1.24. Резервное копирование тестовых наборов
• Требование 3.1.25. Резервное копирование результатов прогона тестов
• Требование 3.1.26. Восстановление тестовых случаев
• Требование 3.1.27. Восстановление тестовых наборов
• Требование 3.1.28. Восстановление результатов прогона тестов
• Требование 3.1.29. Экспорт тестовых случаев
• Требование 3.1.30. Экспорт тестовых наборов
• Требование 3.1.31. Экспорт результатов прогона тестов
• Требование 3.1.32. Получение справки
• Требование 3.1.33. Многопользовательские функциональные возможности
• В ходе прогона тестов по всем свойствам получены результаты, которые описаны ранее, в разделе 2.
4. Свойства, которые не должны тестироваться
Ниже приводится список функциональных свойств и/или конфигураций системы, которые не тести­
ровались.
• Web-сервер (Apache или IIS) непосредственно не тестировался.
375

Сводный отчет по тестированию ТМТ
TMT-TPS-10
• Не проводилось расширенное тестирование клиент/серверной архитектуры под большой на­
грузкой. Многопользовательские функциональные возможности тестировались для пяти ре­
альных пользователей, что является минимальной многопользовательской конфигурацией.
5. Отклонения от плана тестирования
Отклонения от плана тестирования не обнаружены.
6. Соблюдение графика
Тестирование было завершено по графику, хотя были обнаружены небольшие отклонения дат нача­
ла и завершения для индивидуальных циклов тестирования.
7. Ссылки
Chris Brown, Test Management Toolkit, Requirements Definition (Набор инструментальных средств
управления тестированием, Определение требований). Документ TMT-RD-10, который размещает­
ся под управлением системы контроля документов по адресу: http://wvvw.trntcointernal.corn/usr/www/docstores/clesiqn/reauirernents/TMT-RD-10.doc
Chris Brown and J. Barnes, Test Management Toolkit, Test Plan (Набор инструментальных средств
управления тестированием, План тестирования). Документ ТМТ-ТР-10, который размещается под управлением системы контроля документов по адресу: httD://www.tmtcointernal.com/usr/www/docstores/desiqn/plans/TMT-TP-10.doc
Chris Brown и J. Barnes, Test Management Toolkit, Release 1.0. Test Procedure Specification (Набор
инструментальных средств управления тестированием, Спецификация тестовой процедуры
ТМТ). Документ TMT-TPS-10, который размещается под управлением системы контроля документов по адресу: httD://www.tmtcointernal.com/usrAwww/docstores/desiqn/plans^MT-TPS-10.doc
Приложение 1 —Список аббревиатур
Отсутствует
Приложение 2 — Определение терминов
Отсутствует
Приложение 3 — Сообщения электронной почты от утверждающих лиц
От: Брит Гейтер (Bret Gater) [bgater@tmtco.com]
Отправлено: четверг 9/10/2001 07:30
Кому: Дж. Варне [jbarnes@tmtco]; test@tmtco; development@tmtco
Копия: marketing@tmtco; costumersupport@tmtco
Тема: Сводка по тестированию ТМТ 1.0
Уважаемые члены команды,
Я просмотрел сводный отчет по тестированию TMT-TSR-10, версия 2, и утвердил его, поскольку он точно представляет результаты тестирования. Команда тестирования рекомендует утвердить выпуск программного продукта ТМТ, версия 1.0. Поздравляю разработчиков и тестировщиков с достигнутым успехом!
С наилучшими пожеланиями, Брит
Брит Гейтер
Менеджер, отдел программирования
TMTCO
376

Литература
1. Albrecht, Allan J. (1979). "Measuring Application Development Productivity." Proceedings of
the IBM Application Development Symposium, 83-92.
2. Basili, V. R. and D. M. Weiss. (1984). "A Methodology for Collecting Valid Software Engi­
neering Data." IEEE Transactions on Software Engineering, SE-10 (6).
3. Beizer, Boris. (1995). Black-Box Testing: Techniques for Functional Testing of Software and Systems.
New York: Wiley.
4. Belford, P. C, R. A. Berg, and T. L. Hannan. (1979). "Central Flow Control Software Devel­
opment: A Case Study of the Effectiveness of Software Engineering Techniques," Proceed­
ings from the Fourth Summer Software Engineering Workshop, SEL-79-005.
5. Black, Rex. (1999). Managing the Test Process. Redford, WA: Microsoft Press.
6. Boehm, Barry W. (1981). Software engineering economics. Englewood Cliffs, NJ: Prentice-Hall, Inc.
7. Boehm, Barry W. (1988). "A spiral model for software development and enhancement."
IEEE Computer, 21(5) (May): 61-72.
8. Boehm, Barry W. (1991). "Software risk management: Principles and practices." IEEE Soft­
ware, 8(1) (January): 32-41.
9. Boehm, Barry W. (2000). Software Cost Estimation with COCOMO II. Englewood Cliffs, NJ:
Prentice Hall.
10. Brooks, Fred. (1982). The Mythical Man-Month: Essays on Software Engineering. Reading, MA:
Addison-Wesley.
11. Burnstein, Ilene, C.R. Carlson, and T. Suwanassart. (1996). "Developing a Testing Maturity
Model." Proceeding of the Ninth International Software Quality Week Conference, San Francisco,
May, 1996. Note: Ilene Burnstein is affiliated with the Illinois Institute of Technology, where work on the Testing Maturity Model is being conducted.
12. Cooley, J. W., and J. W. Tukey. (1965). "An Algorithm for Machine Calculation of Complex
Fourier Series." Mathematics of Computation, Vol. 19, pp. 297-301.
13. Curtis, Bill, Herb Krasner, Vincent Shen, and Neil Iscoe. (1987). "On building software process models under the lamppost." Proceedings of the 9th International Conference on Software
Engineering (pp. 96-103). Monterey, CA: IEEE Computer Press Society.
14. DeMarco, Tom, and Timothy Lister. (1987). Peopleware: Productive Projects and Teams. New
York: Dorset House Publishing.
15. Dustin, Elfriede, Jeff Rashka, and J o h n Paul. (1999). Automated Software Testing: Introduction,
Management, and Performance. Reading, MA: Addison-Wesley.
16. Fagan, M.E. (1976). "Design and code inspections to reduce errors in program develop­
ment." IBM Systems Journal, 15(3): 182-210.
17. Fewster, Mark, and Dorothy Graham. (1999). Software Test Automation. Reading, MA: Addi­
son-Wesley.
18. Good, Donald I., R. M. Cohen, С G. Hoch, L. W. Hunter, and D. F. Hare. (1978). "Certifi­
able Minicomputer Project, ICSCA," Report on the Language Gypsy, Version 2.0. Technical
Report ICSCA-CMP-10, The University of Texas at Austin, September 1978.
19. Humphrey, Watts S. (1990). Managing the Software Process. Reading, MA: Addison-Wesley.

378 Л и т е р а т у р а
20. Humphrey, Watts S. (1997). Introduction to the Personal Software Process. Reading, MA: Addi- son-Wesley.
21. Humphrey, Watts S. (2000). Introduction to the Team Software Process. Reading.MA: Addison-
Wesley.
22. IEEE. (1983). IEEE Standard 829: IEEE Standard for Software Test Documentation. Los Alamitos,
CA: IEEE Computer Society Press.
23. IEEE. (1984). IEEE Standard 830: The IEEE Guide to Software Requirements Specifications. Los
Alamitos, CA: IEEE Computer Society Press.
24. IEEE. (1993). IEEE Standard 1044, IEEE Standard for Software Anomalies, © 1993 IEEE, New
York, NY.
25. Jones, Capers. (1986). Programming Productivity. New York: McGraw-Hill.
26. Jones, Capers. (1997). Software Quality: Analysis and Guidelines for Success. Boston: Interna­
tional Thompson Computer Press.
27. Kaner, Cem, Jack Falk, and Hung Quoc Nguyen. (1999). Testing Computer Software (2nd ed.).
New York: Wiley.
28. Kit, Edward. (1995). Software Testing in the Real World: Improving the Process. Reading, MA:
Addison-Wesley.
29. Koomen, Tim, and Martin Pol. (1999). Test Process Improvement. Reading, MA: Addison-
Wesley.
30. Lewis, William E. (2000). Software Testing and Continuous Quality Improvement. Boca Raton,
FL: Auerbach.
31. McCabe, Thomas J. (1976). "A Complexity Measure." IEEE Transactions on Software Engineering.
32. McCabe, Thomas, and Charles W. Butler. (1989). "Design Complexity Measurement and
Testing." Communications of the ACM 32, 12 (December 1989): 1415-1425.
33. McConnell, Steve. (1996). Rapid Development: Taming Wild Software Schedules. Redmond, WA:
Microsoft Press.
34. Michael Fagan. (1976). "Design and Code Inspections to Reduce Errors in Program Devel­
opment," IBM Systems Journal, 15 (Ъ), 182-211.
35. Musa, John D. (1993). "Operational Profiles in Software-Reliability Engineering." IEEE Soft­
ware, 14-19.
36. Myers, Glen. (1979). The Art of Software Testing. New York: Wiley.
37. Myers, GlenfordJ. (1977). "An Extension to the Cyclomatic Measure of Program Complex­
ity." SIGPLAN Notices.
38. Paulk, Mark, Charles Weber, and Bill Curtis. (1995). The Capability Maturity Model: Guidelines
for Improving the Software Process. Reading, MA: Addison-Wesley.
39. Paulk, Mark. "Using the Software CMM with Small Projects and Small Organizations." In
Eugene McGuire (1999), Software Process Improvement: Concepts and Practices. Hershey, PA:
Idea Group Publishing.
40. Perry, William E. (2000). Effective Methods for Software Testing(2nd ed.). New York: Wiley.
41. Perry, William E., and Randall W. Rice. (1997). Surviving the Top Ten Challenges of Software
Testing. New York: Dorset House Publishing.
42. Pfleeger, Shari Lawrence. (2001). Software Engineering: Theory and Practice (2nd ed.). Upper
Saddle River, NJ: Prentice Hall.

Литература 379
43. Pressman, Roger. (1997). Software Engineering: A Practitioner's Approach (4th ed.). New York:
McGraw-Hill.
44. Robertson, Suzanne, and James Robertson. (1999). Mastering the Requirements Process. Read­
ing, MA: Addison-Wesley.
45. Schulmeyer, G. Gordon and Garth R. Mackenzie. (2000). Verification and Validation of Modern
Software-Intensive Systems. Upper Saddle River, NJ: Prentice Hall.
46. Software Productivity Consortium (1993). Software Error Estimation Program (SWEEP)
User Manual, (SPC-92017-CMC), Version 02.00.10.
47. Sommerville, Ian. (1992). Software Engineering (4th ed.). Reading, MA: Addison-Wesley.
48. The Standish Group. (1994). The CHAOS Report. Dennis, MA: The Standish Group.
49. The Standish Group. (1995). The Scope of Software Development Project Failures. Dennis, MA:
The Standish Group.
50. van Soligen, Rini, and Egon Berghout. (1999). The Goal/Question/Metric Method: A practical
guide for quality improvement of software development. Berkshire, England: McGraw-Hill Book
Company, UK.
51. p. 5 From Verification and Validation of Modern Software-Intensive Systems by Schulmeyer 8c
MacKenzie. © 2000. Reprinted by permission of Pearson Education, Inc., Upper Saddle
River, NJ.
52. pp. 67, 73 From Rapid Development: Taming Wild Software Schedules by Steve McConnell.
Copyright 1996. Reproduced by permission of Microsoft Press. All rights reserved.
53. pp. 10, 40 From Software Engineering: Theory and Practice, 2nd ed., by S. Pfleeger. © 2001. Ma­
terial is reprinted by permission of Pearson Education, Inc.
54. pp. 25, 66, 134, 139 From Software Engineering Economics by Boehm, B.W. © 1981. Reprinted by permission of Pearson Education, Inc., Upper Saddle River, NJ.
55. p. 28 From Software Engineering: A Practitioner's Approach, 4th ed., by R. Pressman. © 1997
McGraw-Hill, Inc.
56. p. 31 Information regarding the content and format of requirements documents is re­
printed with permission from IEEE Std. 830-1993: The IEEE Guide to Software Requirements
Specifications. Copyright 1993 by IEEE.
57. p. 36 From Software Testing in the Real World: Improving the Process, by E. Kit. © 1995 Addison-
Wesley, Inc.
58. p. 55 From Automated Software Testing (pp. 32-38) by E. Dustin, J. Rashka, &J. Paul. © 1999
Addison Wesley Longman, Inc. Reprinted by permission of Pearson Education, Inc.
59. p. 61 Material excerpted from Managing the Test Process by permission of the author, Rex
Black; second edition in press by John Wiley & Sons, Inc., ISBN 0-471-22398-0.
60. p. 70 From The Mythical Man-Month (p. 18) by F. Brooks, Jr. © 1999 Addison Wesley Long­
man, Inc. Reprinted by permission of Pearson Education, Inc.
61. pp. 77, SO Information regarding the content and format of test documents is reprinted with permission from IEEE Std. 829-1983: IEEE Standard for Software Test Documentation. Copy­
right 1983 by IEEE.
62. pp. 214-215 Information regarding defect reporting is reprinted with permission from
IEEE Std. 1044-1993: IEEE Standardfor Software Anomalies, Copyright 1993 by IEEE.
1   ...   32   33   34   35   36   37   38   39   40


написать администратору сайта