Skip to main content

Test Sözlügü

Daha iyi iletişim için kişilerin birbirlerini daha iyi anlaması, yani ortank bir kullanması, gerekir. Bu ise kullanılan terimlerin ve özel kelimelerin herkes tarafından aynı anlamda kullanılmasıyla olabilir. Test Mühendisliği gibi farklı grubların (yazılım disiplinlerin) çıkar çatışmasının olduğu disiplenlerde aynı şeyleri söyleyip aynı şeyleri anlamak daha önemlidir. Yazılım testi düşünüldüğünde ISTQB, ISEB ve IEEE'nin katkılarının olduğu bir disiplinde herşey İngilizce olarak öğretilmektedir. 

Kendi bilgi dağarcığımla Türkçe karşılıklarını bulmaya çalıştığım ve "Test Yönetimi" isimli çalışmamın bir parçası olan "Test Sözlüğü" çalışmasında testte sıkça karşılaşılan kelimelerin/terimlerin Türkçe karşılıklarını ve bazılarının kısa açıklamalarını bulabilirsiniz. Eksik veya yanlış olduğunu düşündüğünüz terimler için beni bilgilendirmenizi rica ederim.



TERİM ANLAMI
Code Program parçaları
Debugging yazılım geliştirme süresince yazılan program parçalarının çalıştırılması
Development of software Yazılım geliştirme
Requirement Yazılım gereksinimleri, neden yazılım gerekli, kullanıcı ihtiyaçları
Review Gözden geçirme
Test basis Tüm birim veya sistemlerin test için gerekli dökümanları
Test Cases Test case; testin tanımı, adımları, amaçlarını içeren dökümanlar
Test objective Test yapmaktaki amaç nedir.
Conformance Testing Compliance testing, uyumluluk testleri
Exit Criteria Testi sonlandırma kriterleri
Incident Hadise, vaka, (hata)
Regression Testing Regresyon testi; bulunan hata sonucu yazılımda yapılan değişikliğin sisteme etkisinin testi
Test Condition Testi gerçekleştirmek için gerekli koşullar
Test Date Testin gerçekleştirildiği tarih
Test Execution Testin gerçekleştirilmesi
Test Log Test gerçekleşmesi sırasında tutulan hertürlü kayıt, döküman, vb.
Tets Summary Repor Test sonrasında testin sonuçlarının özet halinde sunulduğu test dökümanı
Testware Test sonrasında ortaya çıkan her türlü test kayıtları, ürünleri, vb.,
Tets Plan Test sırasında uyulması gereken kuralların bulunduğu test başlamadan önce hazırlanan plan
COTS (Commercial off-the-shelf) paket proğramlar
Incremantel developmant model Arttırımsal (iteratif) yazılım geliştirme modeli
Test level Test seviyesi, birim-entegrasyon- ...
Validation Doğrulama
Verification Onaylama (Sağlama, daha uyğun olacağı kanısındayım)
V-model Şelale modele alternatif olarak geliştirilen, testin herbir aşamada olduğu yazılım geliştirme modeli
Alpha-beta testing Alfa testi, yazılım geliştirme ortamında yapılan kullanıcı kabul testleridir; Beta testi ise kullanıcıların kendi ortamlarında bir fiil uygulamayı kullanarak yaptıkları test aktiviteleridir. Eğer belirli sayıda ve davet ile belli profilde kullanıcılara izin verilerek beta testi amaçlanıyor ise buna closed-beta testi denir; kullanıcılarda herhangi bir sınırlama yok ise open-beta testi denir.
Component testing Birim testi (unit testing)
Driver Sürücü
Functional req. Fonksiyonel Gereksinimler
İntegration testing Entegrasyon testi
Non-functional testing Fonksiyonel olmayan testler. Örn
Operational testing Operasyonel testler
Compliance - acceptance testing Uygunluk (kurallar, yasalar, vb) testi
Robustness testing Sağlamlık testi, Birim veya sistemin uygun olmayan durumlarda çalışabilmesi
Stub Bir birimi test etmek için hazırlanmış proğram parçaları
System testing Sistem tesleri, entegre çalışan sistemlerin testi
Test-driven development Test yönelimli yazılım geliştirme. Test caseler önce hazırlanır ve tüm caseler testten geçene kadar yazılım devam eder.
Test environment Test ortamı
User acceptance testing Kullanıcı kabul testleri
Black-box Kara kutu testleri. Yazılımın iç yapısını; kod, algoritma, vb. Bilinmeden yapılan testlerdir.
Code coverage Yazılan kodların nekadarının çalıştırıldığını ve nekadarının çalıştırılmadığını kontrol eden testler bütünü
Re-testing Bulunan hata sonrasinda yapılan değişikliğin test edilmesi
Functional Testing Fonksiyonel testler
Iteroperability Testing Birim veya sistemlerin birlikte çalışabilmelerinin testi
Load Testing Yük testi, belli bir yükte(yogunlukta) yazılımın verdiği cevaplar
Maintainability Testing Bakım yapılmasına nekadar uygun olduğu, güncellemenin maliyeti
Regression Testing Regresyon testleri
Performance Testing Performans testi
Portability Testing Taşınabilirlik testleri
Reliabity Testing Tutarlılık testleri
Security Testing Güvelik testleri
Specification-based Testing Gereksinimlerden yola çıkılarak test etmek
Stress Testing Yük testi, sınır değerleri bulmak için yapılan yıpratıcı testler
Structural Testing Beyaz kutu testleri
Test suite Test yapılması için gerekli ortam
Usability Testing Kullanılabilirlik testi
White-box Testing Beyaz kutu testleri
Statik Testing (Statik Testler) Yazılımın kodu çalıştırılmadan, yazılımın kalitesiyle ilgili detaylarının tartışıldığı genelde kod seviyesinde olan ve yazılımcının kendi hatalarını bulması şeklinde gerçekleşen yazılım test aktiviteleridir. Genelde düşünce hatası(error, mistake) bulunur.
Dynamic Testing (Dinamik Testler) Yazılımın çalıştırılarak yapılan testlerdir. Genelde kod belli bir olgunluk seviyesine gelir ve versiyon (sürüm) numarası verilerek dinamik testlere başlanır. Giriş-Çıkışlar kontrol edilir yani yazılıma girilen her bir aktivitede yazılımın verdiği cevapların doğruluğu kontrol edilir. Genelde hataları (failure) bulunur.
Reviews (Gözden Geçirme) Statik test teknikleri içerisinde yeralır. Kod, döküman, gereksinimler daha uzman kişilerce gözden geçirilerek daha sonra ortaya çıkabilecek hatalar ayıklanmış olur.
Entry criteria (Teste başlama kriteri) Geliştirmenin belli bir olgunluga erişip (smoke testten geçebilen) test alınması için gerekli kriterlerdir.
Exit Criteria (Testi sonlandırma kriterleri) Yeterli miktarda test yapılip yapılmadığının anlaşılması için konulan kriterlere testi sonlandırma kriterleri denir. Risk yönetimi yapmak daha sağlıklı sonuçlar verir.
Formal Review (Formal gözden geçirme) Planlı ve hazırlanarak yapılan ve süreçleri olan gözden geçirmelerdir.
Informal Review (Formal olmayan gözden geçirmeler) Hızlıca ve plansız bir şekilde sonuca gitmek adına uzman kişilerle yapılan ve genelde dökümante edilmeyen toplantılardır.
Inspection (İnceleme) Kuralları olan ve bulguların raporlandığı ve bir lider tarafından yönetilen bireysel veya grubca yapılan gözden geçirme toplantılarıdır.
Moderator (Moderatör) Toplantıları yöneten kişiler
Reviewer (İneleyici) Kod, döküman, vb. inceleyen uzmanlaşmış kişiler
Scribe (Yönetici) Planlamayı yapar, yönetir, iletişim kurar.
Technical Review (Teknik gözden geçirmeler) Kod, sistem gereksinimleri, database tasarımı gibi teknik konuların tartışıldığı toplantılardır. Teknik gözden geçirmelerin sorunu çözmek, alternatif çözümler üzerine tartışmak ve en efektifine çözüme karar vermek, kurallara uygunluğu denetlemek gibi amaçları olabilir.
Walkthrough Üstünden geçmek. Yazarın neler yaptığını ilgili kişilere aktarır, yazıcı (scribe) katılabilir, ve amacı öğretmek, hata bulmak, katılımcı yorumu almak şeklinde sıralanabilir.
Complier (Derleyici) Yazılan kodların derlenmesi ve çalıştırılmasını sağlayan araçlardır.
Cyclomatic Complexity Yazılan kodun nekadar karmaşık olduğunu gösteren bir parametre.
Control Flow (Akış şeması) Yazılan kodun işletilmesi sırasında neleri yapacağını gösteren yol, akış şemaşı.
Data Flow (Veri Akışı) Veri akışını (oluşturma – kullanma – yoketme) adımlarını soyut bir şekilde anlatan akış şemalarıdır.
Static Analysis (Statik analiz) Yazılımı oluşturan parçaların (kod, analiz, gereksinim, vb.) çalıştırmaksızın analiz edilmesidir.
Test cases (Test Kase) Bir bulguyu test etmek için gerekli tüm bilgileri (test datası, test adımları, test açıklaması, test başarılı sonucu, vb.) içerisinde barındıran test faliyetine genel olarak test case denir.
Test case specification (Test Kase Açıklaması) Bir grub test case için (test set) hazırlanmış ve o test seti koşturmak için gerekli bilgileri içeren dökümandır.
Test condition (Test Koşulu) Bir veya birden fazla test casenin koşturulması için gerekli koşullar.
Test data (Test Verisi) Test caseleri koşturmak için kullanılan veriler (kullanıcı bilgilieri, şifre, kupon, kod, numara, vb.)
Test procedure specification (Test Koşturma Adımları) Test caseleri koşturmak için yapılması gerekenlerin (test steps) sıralı bir şekilde (adım-adım) verildiği döküman.
Tets script Test caseleri otomatik koşturmak için yazılmış kod parçaları.
Traceability Döküman veya program içerisinde ilgili parçaların izlenebilmesine (ilgili kod nerden cağrıldığı, nerelerde kullanıldığı, vb.) olanak veren bir özelliktir.
BB Test Design Tech. (Black Box – Kara Kutu Test Teknikleri) Yazılımın fonksyionları test edilir. Yazılımın iç yapısı (kod, database, aktarım, vb.) görülmediği için kullanıcı gibi test test edilir, bu yüzden kara-kutu testler denir. Girişlere karşılık gelen çıkışlar kontrol edilir, hatalı çıkışlar saptanır.
Exp. Based Design Tech. (Experience Based – Deneyim Temelli Test Teknikleri) Testcilerin deneyimlerinden yola çıkarak test edilir. Farklı alanlar için farklı test metodlar kullanılır. Hataların öbekleşmesi (defect clustering) bu test tekniğinde önemli yeralır.
Spec. Based Design Tech. (Specification Based – Fonksiyon Temelli Test Teknikleri) Kara kutu test teknikleridir.
Struc. Based Design Tech (Structural Based – Yapısal Test Teknikleri) Beyaz kutu test teknikleridir.
WB Design Tech. (White Box – Beyaz Kutu Test Teknikleri) Yazılımın iç dinamikleri (algoritmalar, mantık yapıları, database sorguları, mimari yapısı, vb.) göz önüne alınarak analiz çıktıları test edilir.
Boundary Value Analysis (Sınır Değer Analizi) Sınır değerler kontrol edilir. Örneğin
Decision Table Testing (Karar Tablosu Testi) Eğer kontrol edilecek çok sayıda durum var ise her bir durumu tablo içerisine alınır ve herbir duruma karşı yazılımın vericeği cevaplar yine tabloya yerleştirilerek karar tablosu oluşturulur.
Equivalence Partitioning (Eşdeğer Aralık Test) Aynı sonuçlar üreten girdiler gruplanarak sadece farklı sonuçlar üreten giriş değerleri grublanmış sınırlandırılmış olur. Test için her bir gruptan bir giriş değerini kullanmak yeterli olacaktır. Örneğin
State Transition Testing (Durum Ğeçiş Testi) Yazılımın durum geçişi gösterdiği yerlerin testleridir.
Use Case Testing (Fayda Analizi Test) Analiz çıktılarının testidir.
Code Coverage (Kod Kapsamı) Hangi kod parçalarının çalıştırılıp hangilerinin çalıştırılmadığını ölçmek için kullanılan bir birimdir.
Decision Coverage (Kontrol Noktalarının Kapsamı) Kod içerisinde nekadar döngünün çalıştırıldığını göstermek için kullanılan bir birimdir. Çalıştırılan toplam döngülerin koddaki tüm döngülere oranı ile bulunur
Statement Coverage (Tüm Noktoların Kapsamı) koddaki ifadelerin çalıştırma oranını bulmak için kullanılan bir birimdir.
Structural Testing (Yapısal Testler) Beyaz kutu testleride denilen yazılımın iç yapısını test etmeye yönelik test teslerdir.
Tester (Testçi) Test yapan kişiler.
Test Leader (Test Lideri) Geniş test grupları içerisinde testçilere görevlerini dağıtan, biraz daha üstten bakabilen kişilerdir. Sanılanın aksine birebir test yaparlar.
Test Manager (Test Grubu Yöneticisi) Test grubunu yöneten kişilerdir.
Entry criteria (Teste başlama kriteri) Geliştirmenin belli bir olgunluga erişip (smoke testten geçebilen) test alınması için gerekli kriterlerdir.
Exit Criteria (Testi sonlandırma kriterleri) Yeterli miktarda test yapılip yapılmadığının anlaşılması için konulan kriterlere testi sonlandırma kriterleri denir. Risk yönetimi yapmak daha sağlıklı sonuçlar verir.
Tets Plan (Test Planı) Test sırasında uyulması gereken kuralların bulunduğu test başlamadan önce hazırlanan plan
Test level (Test Seviyesi) Test seviyesi, birim-entegrasyon- ...
Test Approach (Test Yaklaşımı) Hangi tip test grubunun hazırlanacağını tanımlayan firmanın benimsediği test methodlarının seçmmeye yarayan yöntemlerdir.
Test Strategy (Test Stratejisi) Test yaklaşımında belirlenen test türlerinin işletilmesi, teste başlama, testi sonladırma kritleri, hata raporlaması, vb içerisine alan test yönetimi.
Test Procedure (Test Adımları) Testi işletmek için gerekli olan adımların anlatıldığı döküman.
Defect Density (Hata Yoğunluğu) Hataların bulunma sıklığı, bir modül üzerinde saptanan hata oranı
Failure Rate (Hata Oranı) Testte hata veren test case oranı
Test Control (Test Kontrolü) Plandan sapma olması durumunda test caselerin sapmayı önlemek için kontrol edilmesi
Test Coverage (Test Kapsamı) Mevcut test caselerin yazılımın nekadarını test ettiğini gösteren bir birim
Test Monitoring (Test Görüntüleme) Test caseler çalıştırılırken mevcut durum ile planlanan arasındaki farkları görüntülemek amaçlı kurulmuş test yönetimi faliyeti
Test Report (Test Raporu) Testlerin tamamlanmasına mütakip çıkan sonuçların özet halinde sunulduğu rapor.
Configuration Manegement (Konfigürasyon Yönetimi) Sistem içerisindeki tüm ekipman ve yazılımların (hardware and software) kontrol edildiği yönetim araçlarına konfigürasyon yönetimi denir.
Version Control (Versiyon Kontrolü) Yazılımlar üzerinde yapılan değişimleri kontrol amacıyla geliştirilmiş ve gerektiğinde istenilen değişikliği (sürüm) geriye almaya yarayan yazılım araçlarıdır.
Risk Hatanın ortaya çıkma olasılığı.
Product Risk (Ürün Riski) Ürünün istenildiği gibi tamamlanmasını engelleyebilecek etkenler.
Project Risk (Proje Riski) Projenin istenildiği gibi tamamlanmasını engelleyebilecek etkenler.
Risk Based Testing (Risk Temelli Test) Riskleri bilerek ve riskleri göz önünde tutarak test eforunu taksim etmek ve testleri yapmak riskin yüksek olduğu yerlerde yoğunlaştırmayı amaçyan test yaklaşımı (test approach).
Incident Logging (Vaka Kaydı) Test sırasında saptanan her türlü hata ve eksikliğin otomatik kayıt altına alındığı kayıt sistemi.
Root Cause (Problemin Özü) Bir sorunu çözmek için yapılan neden sonuç araştırmalarıdır.
Debugging Tool (Hata Ayıklama Araçları – Debuging Araçları) Proğramcıların hataları oluşturmak, araştırmak ve ayıklamak veya proğramları adım adım çalıştırmak için kullandıkları araçlardır.
Driver Test sırasında olmayan bir birim veya bileşen yerine kullanarak testi gerçekleştirmeye yarayan test yazılım elemanları.
Probe Effect (Ölçücü Etkisi) Test amacıyla kullanılan bir araç test edilen biriminin üzerine bir etki bırakır. Test sonuçlarına yansıyan bu etkiye ölçücü (probe) etkisi denir. Performans ölçen araçların performansı ölçülen ürün üzerine olumsuz etkisi gibi. Kod coverage yapan bir aracın kodu incelemeye alması ve bazı kodları dahil edememesi gibi durumda başka bir örnektir. Daha uç bir örnek ise debugging yapan bir aracın varlığında hatanın bulunamaması yani hatanın oluşması için debuggerin çalışmıyo olması koşuludur. Bu probe effect Heizenberg’in uncertainity princible (belirsizlik kuralı) ile Heizenbugs adını almıştır.
Stub Yazılımın işletilemeyen kısmında tanımlı bir fonksiyon görevi gören ve o fonksiyon çalıştırılmadan proğramcının istediği sonucu üreten kod parçalarıdır. Programı test etmek amacıyla doğru çalıştığından emin olunmayan fonksiyonları taklit ederek geriye kalan kısımlar test edilir.
Data Driven Testing Testler otomasyonla işletilir. Test için veriler giriş (input) ve çıkış (expected result) bir tabloya girilir ve otomasyon proğramı buradaki verileri kullanarak yazılım test edilir.
Keyword Driven Testing Fonksiyonel bazlı kelimeler üzerinden test case oluşturularak otomatik test yöntemidir. Login- createUser - logout gibi her bir kelimenin kendisi test case olacak şekilde test scriptleri hazırlanır ve senaryoya uygun kombinasyonlarla test oluşturulur.
Scripting Language (Scripting Dili) Test otomasyonunda kullanılabilen programlama dili.
http://whisperinggums.wordpress.com/2011/09/14/whither-dictionaries/
 

Popular posts for software testing and automation

Selenium Error "Element is not currently interactable and may not be manipulated"

Selenium webdriver can drive different browsers like as Firefox, Chrome or Internet Explorer. These browsers actually cover the majority of internet users, so testing these browsers possibly covers the 90% of the internet users. However, there is no guaranty that the same automation scripts can work without a failure on these three browsers. For this reason, automation code should be error-prone for the browsers you want to cover. The following error is caught when the test script run for Chrome and Internet Explorer, but surprisingly there is no error for the Firefox. Selenium gives an error like below: Traceback (most recent call last):   File "D:\workspace\sample_project\sample_run.py", line 10, in <module>     m.login()   File "D:\workspace\ sample_project \test_case_imps.py", line 335, in login     driver.find_element_by_id("id_username").clear()   File "C:\Python27\lib\site-packages\selenium-2.35.0-py2.7.egg\selenium\webdriver\r

Change Default Timeout and Wait Time of Capybara

One of the biggest challenge for automation is handling timeout problem. Most of the time, timeout is 60 seconds but it may sometimes not enough if you have badly designed asynchronous calls or the third party ajax calls. This makes handling timeout more complex. set large enough to tolerate network related problems. For Selenium based automation frameworks, like Capybara, default Webdriver timeout is set to Net::ReadTimeout (Net::ReadTimeout) Changing ReadTimeout If you have timeout problem for Capybara, it gives an error like above. This means that the page is not fully loaded in given timeout period. Even you can see that page is loaded correctly but webdriver wait until the Ajax calls finish. class BufferedIO #:nodoc: internal use only def initialize (io) @io = io @read_timeout = 60 @continue_timeout = nil @debug_output = nil @rbuf = '' end . . . . . def rbuf_fill beg

Page-Object Pattern for Selenium Test Automation with Python

Page-object model is a pattern that you can apply it to develop efficient automation framework. With the page-model, it is possible to minimize maintenance cost. Basically page-object means that your every page is inherited from a base class which includes basic functionalities for every page. If you have some new functionalities that every page should have, you can simple add it to the base class. Base class is like the following: In this part we are creating pages which are inherited from base page. Every page has its own functionalities written as python functions. Some functions return to a new page, it means that these functions leave the current page and produce a new page. You should write as much as functions you need in the assertion part because this is the only part you can use the webdriver functions to interact with web pages . This part can be evaluate as providing data to assertion part.   The last part is related to asserting your test cases against to the

Create an Alias for Interactive Console Work: Selenium and Capybara

If you are working on shell most of the time Aliases are very helpfull and time saving. For testing purposes you can use Alias for getting ready your test suites. In this post, I want to explain both running Selenium and Capybara on console and creating aliases for each.  This post is for Windows machines, if you are using Unix-like see   this post . Creating Scripts for Selenium and Capybara First of all, it is assumed that you have installed Selenium and Capybara correctly and they work on your machines. If you haven't installed, you can see my previous posts. I am using the Selenium with Python and the Capybara with Ruby. You can use several different language for Selenium but Capybara works only with Ruby.  Create scripts in a directory called scripts (in your home folder, like as  ~/scripts ) for your automation tool as following, save them as capybara.rb, sel.py :  Creating Aliases Depends on your favourite shell, you need to add the alias to .bashrc bash

Performance Testing on CI: Locust is running on Jenkins

For a successful Continuous Integration pipeline, there should be jobs for testing the performance of the application. It is necessary if the application is still performing well. Generally performance testing is thought as kinds of activities performed one step before going to live. In general approach it is true but don't forget to test your application's performance as soon as there is an testable software, such as an api end point, functions, and etc. For CI it is a good approach to testing performance after functional testing and just before the deployment of next stage. In this post, I want to share some info about Jenkins and Locust. In my previous post you can find some information about Locust and Jenkins. Jenkins operates the CI environment and Locust is a tool for performance testing. To run the Locust on Jenkins you need command line arguments which control the number of clients ,   hatch rate,  running locust without web interface and there should be so