Veri Bazli Kararlar, Istatistik ve Null Hipotezi

Updated: Sep 23

İşletmede okurken istatistik dersimin olduğunu hatırlıyorum 4 sene boyunca. Amerika’ya MBA okumaya gittiğimde aldığım derslerde istatistik kullanmam gerektiğinde üniversitedeki hocamın bize istatistik öğretemediğini farkettim. Öğretemedi diyorum çünkü hocamız genelde maçlardan bahsederdi, onun dışında %95 güven aralığını hatırlıyorum. Sorunun bende değil hocada olduğunu kanıtlayan diğer bir kanıt ise Amerika’daki MBA eğitimimin ilk 4 ayında istatistik kitabının tamamını öğrenmiş olmamdı. Yani sorun bende değilmiş. Çünkü öğrenmek zorundaydım, okul ezberden öte, bizi projeler ile sınadığı için pratik yaparak öğrendik. Evet 4 ay içinde istatistiği öğrenip projelerde kullanmamın bir bedeli vardı, uykusuz geceler ve verilen 7 kilo. Tabi ki bu gecelerde hocamı çok anmışımdır. Bu hikayeyi neden anlattım? İstatistik okuduğunuzda çok sıkıcı gelir ama aslında bunu günlük hayatınızda, işinizde karar vermek için kullanmaya başladığınızda ilginç bir hale gelmeye başlar.

İstatistik kelime olarak bazen 2 farklı durumda kullanılır. Bence bu karışıklık yaratan bir durum ve bu farklılığın farkında olmak çok önemli. İstatistiğin ilk kullanıldığı yer belirli bir alandaki gerçek verinin listelenmesi diyebiliriz. Örnek aylık satış verisine istatistik denir. Bu veri gerçektir, değişmez. Aralık ayında 1000 tane telefon satışı verisi gibi, evet iadeler olabilir ama bu 1000 satışın gerçekleştiği gerçeğini değiştirmez.

Ama istatistik kelimesi gerçek olmayan tahmini veriler için de kullanılır. Bu veriler gerçek verinin istatiksel testler aracılığı ile değiştirilmesi ile yaratılır ve gerçek veri değildir. Tahmindir.Peki gerçek olmayan bir veriyi neden yaratırız? Kesin olmayan durumlarda karar vermek için veriden faydalanırız. Bazen nicesel veriden bazen niteliksel veriden. Eğer elimizdeki veri sayılar ise, istatistik bize bu sayıları kullanarak tahmin vererek karar vermemize yardım etmeye çalışır. Veri analizi etrafımızdaki bilinmezi azaltmak için kullanılır.Dijital çağda bu belirsizlik daha da büyümüştür. Banka şubesine gidip banka çalışanı ile görüşen müşterinin yarattığı veri ile aynı müşterinin internet bankacılığında yarattığı veri aynı değildir. İlkinde banka çalışanı müşteri ile direk iletişimde olduğu için müşteri ile ilgili daha kesin bilgi toplar. Dijitalde bu problemi yazılımlar ile veri toplayarak çözmeye çalışırız. Herkes veriden çok iyi anlamadığı için dijitalde gerekli gereksiz çok veri yaratılmaktadır. Bunun sonucu yanlış kararlar alınma riski vardır. Buradaki yapılabilecek en büyük yanlışlardan biri birisinin kendi kafasındaki hipotezi kendi çıkarı için kanıtlamaya çalışmasıdır. Özellikle analytics kariyerin başındaki analistler bazen bu hataya düşebilir. Bazen bu hata yöneticilerimiz yüzünden de yapılır.Burada durup asıl yapmaya çalıştığımız hatırlamamız gerekir. Bizim amacımız GERÇEĞİ kovalamaktır. Bunun da yolu elimizdeki veriyi anlamamıza yardımcı olacak gizli patternları bulmaktır.

Veri madenciliği (data mining) verideki gizli patikalari bulmaya çalışır, istatistiksel testler ise bu bulunan yolları konfirme etmeye çalışır. Elinizde tüm kitlenin verisi olsa bile, dijital çağda veri ve bilgi sürekli ve çok hızla değişiyor. Bir banka şubesini düşünün. Eskiden sadece banka şubesinde yapılan işlemlerin sayısı internet bankacılığı sayesinde katlarca arttı, bu da işletmede yaratılan verinin çok hızla artmasına neden oldu. Her saniye kaç tane yeni tıklama, yeni müşteri, yeni satış verisi oluşuyor?Bu nedenle elimizdeki veri ile ortaya çıkan sonuç ve kararları yeni gelen ve gelmekte olan veriye de uygulayabilir miyiz? Su anda en büyük sorun bu.

Eğer istatistik bilmiyorsanız ise The null hypothesis (sıfır hipotezi) ile başlamanızı öneririm. Bu hipotez bulduğumuz sonuçlara şüpheci bakmamızı önerir. Veride bulduğumuz farklılıkların tesadüf olduğunu söyler. Bu sayede gördüğümüz her farklılığı otomatik olarak 100% tek gerçek olarak kabul etmemize yardım eder. Amaç bulduğumuz sonucun farklı yöntemler ile yalanlanmayacağından emin olmaktır. Null hipotezinde null(H 0) bir konu hakkındaki genel sonuçtur, alternatif hipotez ise araştırmacının bu konu hakkındaki gerçek tahminidir. Bu hipotezi sayılar ile ifade etmek için P value yöntemini kullanıyoruz.P value , hesaplanmış olasılık, null hipotez (H 0) doğru olduğu durumlarda gözlenen değerler içindeki uç noktadaki farklı değerleri bulmayı amaçlar.P değeri büyük ise, yani ortaya çıkan farklılık çoğu zaman olan bir durum ise , null hipotez (H 0)’in doğruluğunu kabul eder ve gerçekten bir farklılığın olmadığını kabul ederiz.Ama p value değeri küçük ise, yani bu gözlenen farklılık sürekli olmuyorsa, (H 0)’in doğruluğunu kabul etmeyiz. Gözlenen farklılığın bir anlamı olduğunu karar veririz. İşte burada %95 güvenlik aralığı kavramı devreye gire. p değeri %5 ise, ortaya çıkan farklı sonuca %95 güvenebileceğimizi düşünürüz. %95 burada q değeridir.

Google Analytics birçok firmaya sitelerinde oluşan verilere kolay bir şekilde erişim vermesi açısından iyi olsa da analytics ve analytics uzmanlığı hakkında yanlış fikirlerin de doğmasına sebep oldu. Oysa analytics istatistik ile desteklenmediği zaman bizi yanlış ve doğru olmayan yollara sürükleyebilir. Bu alanda basit istatistik testleri öğrenmeniz ve bunları bulduğunuz veri setlerine uygulamanız verinizi daha iyi anlamaniza yardım edecektir. Elbette istatistik 100% gerçeği vermez. Deneyim, ve deneyim sonucu oluşan icgudulerinizi de veri analizine katabilirseniz ancak gerçeğe ulasabilirsiniz.

sibel akcekaya


BE IN

TOUCH

Please fill your contact details below:

 Email Us: info@nobhillconsulting.com     San Francisco, CA and Istanbul,Turkey

© 2023 by GO MOBILE. Proudly created with Wix.com