Skip to main content

Turkey Software Quality Report 2012 - Türkiye Yazılım Kalitesi Raporu 2012

Turkish Testin Board (TTB) tarafından Türkiye'de yazılım kalitesi hakkında yapılan araştırma sonuçları Türkiye'de çıkartılan yazılımın kalitesi hakkında özet bilgiler sunmaktadır. Bu rapor ile bazı verilen sunulmuş ve bu veriler ışığında bazı çıkarımlar yapılmıştır. Bu yazımda bu 2012 - 2013 için hazırlanmış rapor hakkında yorumlarımı yazmak istedim.

Türkiye Yazılım Kalitesi Rapor 2013
Öncelikle raporu hazırlayan dernek (TTB) hakkında kısa bilgi vermek gerekir. TTB 2006 yılında ISTQB'ye bağlı olarak kurulmuş ve Türkiye'de test eğitimi ve sertifikasyonu vermek üzere görevleri bulunan bir dernektir. Hatırlamak gerekirse ISTQB - uluslar arası test ve kalites derneği 2002 yılında Belçika'da kurulmuş bir dernektir ve 70 ülkede faliyet göstermektedir. Türkiye gibi ülkede dernekleride mevcuttur, tam listesini buradan görebilirsiniz. Bu derneklerin asıl amacı test eğitimi vermek ve sertifikasyonu yaymaktır. Bu doğrultuda yaklaşık olarak eğitim başına 1000$ ve sertifika başına ise 250$ gibi bir ücret talep etmektedir. Piyasa araştırmalarını bu gibi raporlar aracılığıyla yaparak mevcut durumu ortaya koymak istemektedirler. Bu açıdan baktığımızda aslında mali kayğıların olduğunu düşünmek hiçte uç bir durum değildir ve doğruluğu konusunda bazı kaygıları taşımaktayım. Fakat Türkiye'de bu kapsamda yapılmış çok fazla bir araştırma olmamasında ve rekabet koşulları oluşturmasından dolayı da destek vermek isterim. Bu sene için hazırlanmış araştımanın başlıkları: 
  1. Test organizasyonu ve süreçler
  2. Test eğitimi
  3. Test otomasyon araçları
Her bir başlığı kendi içerinde değerlendirmek gerekirse ve çıkan bazı sonuçları geçen senenin sonuçlarıyla karşılaştırdığımızda sonuçlarını şu şekilde özetleyebiliriz.

Test Süreçleri
Test süreçleri ile ilgili olarak, geçen sene test işiyle görevli olan insanların pozisyonlarına bakıldığında bu sene geçen seneye oranla daha fazla "test uzmanlığı" ile ilgili kişilerin test görevlerini yerine getirdiği görülebilir. Test işiyle görevli olan test uzmanı oranı geçen sene %54 ike bu seneki oran %74 olmuştur. Ayrıca outsource test işinde ise yaklaşık olarak geçen sene %15 iken bu sene %8 oranına düşmüştür. Bu durum ise firmaların test mühendis çalıştırma oranlarının arttığının bir göstergesidir. Bu sene test aktiviteleri arasında en büyük trend ise test otomasyonu ve test yönetimi  olarak belirlenmiş durumda. Bu ise yine daha fazla sayıya ulaşan test mühendislerin yönetilmesi ve daha verimli çıktıları almak gibi kaygıların sonucunda ortaya çıkmış bir tablodur demek yanlış olmaz. Yine bu raporda yazılım hataları en çok gözden geçirmeler sırasında yakalandığı ve en az hata ise static test araçları ile bulunduğu ortaya çıkmıştır.


Test Eğitimi
İkinci bölümde ise Türkiye'de yazılım test eğitiminin durumunu araştırmak üzere "test mühendislerinizin ne kadarlık bir kısmı uluslararası test eğitimi aldı?" şeklinde soru sorulmuş ve cevapların ise en büyük oranı olan yaklaşık %30'u "hiç eğitim almadı" şeklinde olmuştur. Cevapların "%20'den azı" test eğitimi aldı cevabını verenlerin oranı ise en çok ikinci oran ile yaklaşık olarak %29 olmuştur. Buradan gelecekteki beklentiler yeni araç ve teknojilerin katılmasından ve bu teknolojilere ayak uydurmak için test eğitimin daha fazla kişi tarafından tercih edileceği yorumu yapılmıştır. Bu bölümdeki ikinci soru ise test eğitimi alan kişilere olmuştur. "test eğitiminden beklentiniz nedir" sorusuna verilen cevapların en büyük oranı %67,5 ile "daha iyi projelere atanmak"  ve %63,2 ile "başkaları tarafından tanınmak" şeklinde olmuştur. En düşük oranlı cevap ise %15,6 ile "daha iyi maaş" olmuştur. Aslında dolaylı olarak daha "iyi projeler atanmak" ve "başkaları tarafından tanınmak" şeklinde verilen cevaplardan "daha iyi maaş" seçeneği doğal bir sonuç olarak çıkarımını yapabiliriz. Belki burada bilgi düzeyini arttırmak ve sektör standartlarını yakalamak gibi seçenekler eklenebilirdi. Bu bölümün sonuç kısmında ise şu yorumlar yapılmışytır: yazılımın her türlü endüstri alanında ve firmada daha fazla kullanılması ve kalite isteklerindeki artmadan dolayı daha iyi test eğitimi almış kişilerin tercih edileceği ve firmalardaki üst düzey yönetim (CIO, CTO, vb.) kadrosundaki kişi olma şansının, test mühendisinin analist ve yazılım geliştirmeciyle aynı oranda olduğu belirtilmiştir.

Test Otomasyonu
Araştırmanın üçüncü bölümünde ise test otomasyonu hakkında olmuştur. Test otomasyonu ile ilgili ilk soru ise "encok hangi süreçleri otomatize ediyorsunuz" şeklinde olmuş ve çıkan sonuç ise yaklaşık %43 oran ile "performans testleri ve simülasyonu" şeklinde olmuştur. Test yönetimi, test işletimi ve birim test otomasyonu yaklaşık aynı oranlarla (%30-35) ikinci ençok otomatize edilen süreçler olmuştur. Buradan çıkartılan sonuç ise test otomasyon aktivitesinin test analist ve daha çok teknik test analistin görev ve sorumluluk alanında olduğu için, Türkiye'deki teknik test analist sayısının artmasıyla test otomasyon işinin yazılım geliştirmecilerden alınarak test gruplarına devredileceği ve bununla birlikte birim test otomasyonu işinin yine yazılım geliştirme ekiplerinde kalacağı yorumu yapılmıştır. İkinci soru ise "test otomasyonundan beklentileriniz nedir" şeklinde olmuştur. Gelen cevapların çoğunluğu tekrar kullanılabilir, tutarlı sonuç, sürdürülebilirlik olmuştur. Bu sorudan çıkartılan sonuç ise; teknik test analistlerin daha iler düzey test teknikleri kullanarak basit testler yeribe API gibi yapıları test etmeleri ve keyword ve data driven gibi test otomasyon teknikleri kullanmalarının gerektiği vurgulanmıştır. Bu bölümdeki son soru ise "test otomasyonunda karşılaşılan en büyük sıkıntılar nelerdir". Verilen cevaplar içerisinde en büyük orana sahip olan şık ise test data hazırlanması olmuştur. Test otomasyonu ile ilgili bilgi ve becerileri içeren şıklar yaklaşık olarak %35 ile %45 arasında değişmiştir fakat önceliklendirme ve bütçe ise en düşük oranları almıştır, bu ise test otomasyon gibi ciddi bir işte çıkan iyi bir sonuçtur. Firmalar genelde test otomasyonu olsun istiyor fakat bununla birlikte bu işi yapacak bilgi ve deneyim birikimi bakımında sıkıntı çekiyor veya bunu göz ardı ediyor. Raporda bu soruyla ilgili yapılan yorum ise şu şekilde olmuştur: firmalar genellikle test otomasyonunu teknik bir işten ziyade test aracı olarak görüyor. Farklı yazılım disiplinlerinin ortak çalışmaması ve entegre edilmemiş gereksinimler ve test yönetim süreçlerinin olması başarıyı engeller denilmekte. Bunun üstesinde gelmek için  uygulama yaşam döngüsü yönetim araçlarını (ALM) önermektedir.

Buradaki raporlara alttaki linklerden ulaşabilirsiniz:

TSQR 2012
TSQR 2013







Popular posts for software testing and automation

Selenium Error "Element is not currently interactable and may not be manipulated"

Selenium webdriver can drive different browsers like as Firefox, Chrome or Internet Explorer. These browsers actually cover the majority of internet users, so testing these browsers possibly covers the 90% of the internet users. However, there is no guaranty that the same automation scripts can work without a failure on these three browsers. For this reason, automation code should be error-prone for the browsers you want to cover. The following error is caught when the test script run for Chrome and Internet Explorer, but surprisingly there is no error for the Firefox. Selenium gives an error like below: Traceback (most recent call last):   File "D:\workspace\sample_project\sample_run.py", line 10, in <module>     m.login()   File "D:\workspace\ sample_project \test_case_imps.py", line 335, in login     driver.find_element_by_id("id_username").clear()   File "C:\Python27\lib\site-packages\selenium-2.35.0-py2.7.egg\selenium\webdriver\r

Change Default Timeout and Wait Time of Capybara

One of the biggest challenge for automation is handling timeout problem. Most of the time, timeout is 60 seconds but it may sometimes not enough if you have badly designed asynchronous calls or the third party ajax calls. This makes handling timeout more complex. set large enough to tolerate network related problems. For Selenium based automation frameworks, like Capybara, default Webdriver timeout is set to Net::ReadTimeout (Net::ReadTimeout) Changing ReadTimeout If you have timeout problem for Capybara, it gives an error like above. This means that the page is not fully loaded in given timeout period. Even you can see that page is loaded correctly but webdriver wait until the Ajax calls finish. class BufferedIO #:nodoc: internal use only def initialize (io) @io = io @read_timeout = 60 @continue_timeout = nil @debug_output = nil @rbuf = '' end . . . . . def rbuf_fill beg

Create an Alias for Interactive Console Work: Selenium and Capybara

If you are working on shell most of the time Aliases are very helpfull and time saving. For testing purposes you can use Alias for getting ready your test suites. In this post, I want to explain both running Selenium and Capybara on console and creating aliases for each.  This post is for Windows machines, if you are using Unix-like see   this post . Creating Scripts for Selenium and Capybara First of all, it is assumed that you have installed Selenium and Capybara correctly and they work on your machines. If you haven't installed, you can see my previous posts. I am using the Selenium with Python and the Capybara with Ruby. You can use several different language for Selenium but Capybara works only with Ruby.  Create scripts in a directory called scripts (in your home folder, like as  ~/scripts ) for your automation tool as following, save them as capybara.rb, sel.py :  Creating Aliases Depends on your favourite shell, you need to add the alias to .bashrc bash

Page-Object Pattern for Selenium Test Automation with Python

Page-object model is a pattern that you can apply it to develop efficient automation framework. With the page-model, it is possible to minimize maintenance cost. Basically page-object means that your every page is inherited from a base class which includes basic functionalities for every page. If you have some new functionalities that every page should have, you can simple add it to the base class. Base class is like the following: In this part we are creating pages which are inherited from base page. Every page has its own functionalities written as python functions. Some functions return to a new page, it means that these functions leave the current page and produce a new page. You should write as much as functions you need in the assertion part because this is the only part you can use the webdriver functions to interact with web pages . This part can be evaluate as providing data to assertion part.   The last part is related to asserting your test cases against to the

Performance Testing on CI: Locust is running on Jenkins

For a successful Continuous Integration pipeline, there should be jobs for testing the performance of the application. It is necessary if the application is still performing well. Generally performance testing is thought as kinds of activities performed one step before going to live. In general approach it is true but don't forget to test your application's performance as soon as there is an testable software, such as an api end point, functions, and etc. For CI it is a good approach to testing performance after functional testing and just before the deployment of next stage. In this post, I want to share some info about Jenkins and Locust. In my previous post you can find some information about Locust and Jenkins. Jenkins operates the CI environment and Locust is a tool for performance testing. To run the Locust on Jenkins you need command line arguments which control the number of clients ,   hatch rate,  running locust without web interface and there should be so