Doğrulama yanlılığı
Doğrulama yanlılığı ya da teyit yanlılığı, kişilerin kendi inançlarını, düşüncelerini ve varsayımlarını destekleyen ya da teyit eden bilgileri kayırma, dikkate alma ve öne çıkarma eğilimidir. Bu yanlılığa sahip kişiler inançlarına, düşüncelerine ve varsayımlarına ters düşen, karşı duran, onlarla çelişen bilgileri ihmal etme, yok sayma eğilimi gösterir.[1] Bilişsel eğilimin bir çeşidi ve tümevarımın sistematik hatasıdır. İnsanlar bilgiyi seçici olarak topladıklarında veya anımsadıklarında ya da belirli bir eğilime göre bu bilgiyi yorumladıklarında doğrulama yanlılığına eğilim gösterirler. Etkisi, duygusallıkla yaklaşılan konularla, iyice yerleşmiş ve değişmesi zor inanışlarla ilgili olduğu takdirde çok daha güçlüdür. İnsanlar aynı zamanda müphem ve belirsiz kanıtları da kendi görüşlerini destekleyici yönde yorumlamaya eğilimlidir. Yanlı araştırma, yorumlama ve bellek karşı tarafların aynı kanıtlara ulaşması durumunda bile anlaşmazlığın daha keskinleşmesi olan tutum kutuplaşmasını, doğru olmadığının kanıtları gösterilmesine rağmen inançlarda ısrar, ilk olarak edinilen bilgiye daha fazla güvenme olan irrasyonel öncüllük etkisi ve iki olay ya da durum arasında bir bağlantı olduğuna dair yanlış algılama olan yanılsama korelasyonunu açıklamak için kullanılır.
1960'larda yapılan bir dizi deney insanların sahip oldukları inançları doğrulama yönünde eğilimi olduğunu önermektedir. Bu deney sonuçları daha sonra fikirlerin yalnızca tek olasılık üzerine odaklanıp alternatiflerin görmezlikten gelinmesi ile tek yönlü sınanmasına eğilim olarak tekrar yorumlanmıştır. Bazı durumlarda bu eğilim insanların vardıkları sonuçlarda yanlı olabilmelerine neden olmaktadır. Gözlemlenen bu yanlılıkların açıklamaları arasında hüsnükuruntu ile insanların bilgilerin değerlendirme kapasitelerinin sınırlı olması verilir. Diğer bir açıklama da insanların tarafsız ve bilimsel bir açıdan incelemektense yanlış olmanın bedelini akıllarında ölçüp biçmeleridir.
Doğrulama yanlılığı kişisel inançlarda aşırı güven duygusunu besler ve karşı kanıtlar olmasına karşın bu inançlara daha da bağlanmayı sağlayabilir. Bu yanlılıklar nedeniyle siyasal ve örgütsel bağlamlarda kötü kararlar alındığı görülmüştür.[2][3][a]
Türleri
değiştirDoğrulama yanlılıkları bilgiyi işlemede görülen etkilerdir. Kişinin beklentilerinin kendi davranışını etkileyerek beklenen sonuca ulaşılması olan beklenti etkisi ya da davranışsal doğrulama etkisinden farklıdır.[7]
Bazı psikologlar doğrulama yanlılığı terimininin tanımını daha kısıtlayıcı bir şekilde kişinin zaten inandığını destekleyen kanıtları seçici olarak toplaması ve farklı bir sonuca ulaştırabilecek kanıtları yok sayması ya da reddetmesi olarak yaparlar. Diğerleri ise terimi daha genel anlamıyla kişinin var olan inançları hakkında kanıt ararken, yorumlarken ya da anımsarken bu inançları korumaya yönelik eğilim olarak kullanırlar.[8][b]
Yanlı bilgi arama
değiştirDeneyler, kişilerin varsayımları ile tutarlı kanıtlar arayarak bunları tek yanlı olarak doğrulamaya eğilimli olduklarını tekrar tekrar göstermiştir.[11][12] Tüm ilgili kanıtları araştırmaktan çok kendi varsayımlarını destekleyecek olumlu cevaplar alacak şekilde soruları oluştururlar.[13] Varsayımlarının yanlış olması durumunda ortaya çıkabilecek sonuçlardan çok doğru olması durumunda bekledikleri sonuçları ararlar.[13] Örneğin, evet/hayır sorularıyla tutulmuş bir sayıyı bulmaya çalışan ve sayının üç olduğunudan şüphelenen birisi "Tek sayı mı?" diye sormayı tercih edebilir. Kişiler, "olumsuz test" olan "Çift sayı mı?" gibi bir soru ile aynı bilgiye ulaşılabilse bile "olumlu test" olarak adlandırılan bu tür soruları tercih ederler.[14] Ancak buradan kişilerin olumlu bir cevap çıkaracak test yöntemleri aradığı sonucuna ulaşılamaz. Deneklerin sahte testler ya da gerçek teşhis edici testler seçebildikleri araştırmalarda, kişilerin gerçek testleri tercih ettikleri görülmüştür.[15][16]
Olumlu testleri tercih etme kendi başına bir yanlılık değildir çünkü olumlu testler oldukça bilgi verici olabilir.[17] Ancak diğer etkilerle birleştirildiğinde bu strateji doğru olup olmalarından bağımsız olarak var olan inançları ya da varsayımları doğrulayabilir.[18] Gerçek dünyada kanıtlar sıklıkla karmaşık ve çok yönlüdür. Örneğin bir kişi hakkında birbiriyle çelişen çeşitli fikirlerin her biri o kişinin davranışının bir yönüne yoğunlaşarak desteklenebilir.[12] Dolayısıyla herhangi bir varsayım yönünde kanıt aramak muhtemelen başarılı bir sonuç verecektir.[18] Bunu göstermenin bir yolu cevabı değiştirecek şekilde sorulacak olan soruyu oluşturmaktır.[12] Örneğin "Sosyal yaşamından mutlu musun?" diye sorulan kişilerin, "Sosyal yaşamından mutsuz musun?" diye sorulan kişilere göre daha çok mutlu olduklarını söyledikleri görülmüştür.[19]
Bir soruda yapılacak küçük bir değişiklik bile kişilerin mevcut bilgiyi araştırmalarını dolayısıyla da ulaşacakları sonuçları etkileyebilir. Bu önerme kurgusal bir çocuk velâyet davası ile gösterilmiştir.[20] Araştırmaya katılanlara şu bilgiler verilir: Velâyeti isteyen A çok yönden veli olabilmek için orta derecede uygundur. Velâyeti isteyen B ise dikkati çeken olumsuz ve olumlu özelliklere sahiptir; çocuk ile çok yakın bir ilişki ancak uzun süreler boyunca çocuktan uzak kalmasına neden olacak bir iş. "Hangisi çocuğun velisi olmalıdır?" sorusu sorulduğunda katılımcıların çoğu, asıl olarak olumlu özelliklere bakarak B'yi seçmiştir. Ancak "Hangisi çocuğun velisi olmamalıdır?" diye sorulduğunda ise olumsuz özelliklere baktıklarından ötürü çoğunluk B'nin veli olmaması gerektiğini, dolaylı olarak da A'nın veli olması gerektiğini söylemişlerdir.[20]
Benzer çalışmalar kişilerin bilgi ararken nasıl yanlı olduklarını gösterse de bu fenomen gerçek teşhis testlerininin tercihi ile sınırlandırılabilmektedir. Deneylerden birinde denekler bir başka kişinin, görüşmeye dayanarak içe dönük-dışa dönük kişilik boyutunu değerlendirmişlerdir. Deneyde yapılan görüşmede soracakları soruları verilmiş bir listeden seçmek zorundaydılar. Görüşme yapılacak kişi içe dönük birisi olarak tanıtıldığında denekler "Gürültülü partilerde ne hoşuna gitmez?" gibi içe dönüklüğü varsayan soruları seçmişlerdir. Görüşme yapılacak kişi dışa dönük birisi olarak tanıtıldığında ise "Kötü geçen bir partiyi canlandırmak için ne yaparsın?" gibi dışa dönüklüğü varsayan soruları seçmişlerdir. Bu yanıltıcı sorular görüşme yapılan kişiye kişilikleri hakkındaki varsayımın doğru olmadığını gösterecek hemen hemen hiç olanak sağlamıyordu.[21] Bu deneyin daha sonra yapılan değişik bir versiyonunda ise deneklere "Sosyal etkileşimlerden kaçar mısın?" gibi daha az tahminlere dayanan sorular seçebilmelerine olanak sağlanmıştır.[22] Bu deneyde denekler teşhise yönelik bu tarz soruları tercih etmiş ve olumlu test sorularını daha az seçmişlerdir. Teşhis edici testleri tercih etme ve olumlu test sorularına zayıf bir eğilim daha sonra yapılan başka çalışmalarda da tekrar gözlemlenmiştir.[22]
Kişilik özellikleri yanlı araştırma süreçlerini hem etkilemekte hem de bu süreçlerle etkileşmektedir.[23] Bireylerin, seçici maruz kalmaya karşı tutum ve tavırlarını dış etkilerden koruma yetileri farklılık gösterir. Seçici maruz kalma durumu bireylerin bilgi ararken kişisel inançları ile tutarlı bilgi arayıp bu inançlarla tutarsız bilgileri göz ardı etmeleriyle oluşur.[24][24] Bireylerin kişisel inançları ile çelişen kanıtları hangi dereceye kadar reddedebildikleri konusunda bir deney yapılmıştır.[23] Yüksek güven düzeylerine sahip kişilerin kendi inançları ile çelişerek karşı bir kanıt oluşturabilecek bilgileri daha kolayca araştırabildiği ancak düşük güven düzeyli bireyleri çelikili bilgileri aramadığı ve kendi inançlarını destekleyecek bilgileri aramayı tercih ettikleri görülmüştür. Kişiler tartışmalarda kendi inanç ve fikirlerine karşı eğilimli olarak kanıtlar geliştirir ve bunları yorumlarlar.[25] Yüksek güven düzeyleri bireylerin kendi inançlarını destekleyen bilgi arama tercihlerini azaltmaktadır.
Bir başka deneyde, deneklerden bilgisayar simülasyonu ile nesneleri hareket ettirmeyi içeren karmaşık bir kural bulma görevi verilmiştir.[26] Nesneler bilgisayar ekranında belirli kurallara göre hareket etmektedir ve katılımcıların bu kuralların ne olduğunu bulmaları istenmiştir. Katılımcılar kurallar ile ilgili varsayımlarını nesneleri bilgisayar ekranında hareket ettirerek deneyebilmektedirler. Yaklaşık on saat süren deney süresince çok sayıda deneme yapmalarına rağmen deneklerin hiçbiri sistemin kurallarını çözememiştir. Denekler varsayımlarını yanlışlamak yerine doğrulamaya çalışmış ve alternatifleri değerlendirmeye pek istekli davranmamışlardır. Varolan varsayımlarının çalışmadığını gösteren somut kanıtlar olmasına rağmen sıklıkla aynı denemeleri yapmaya devam etmişlerdir. Bazı katılımcılara uygun varsayım test etme yöntemleri öğretilmiş olsa da bu bilgilerin hemen hemen hiç etkisi olmamıştır.[26]
Yanlı yorumlama
değiştirDoğrulama yanlılıkları yalnızca kanıt toplama ile sınırlı değildir. İki farklı birey aynı bilgiye sahip olsalar dahi bunları yorumlama yolları yanlı olabilir.
Stanford Üniversitesi'nde bir araştırma ekibi, idam cezası hakkında kesin görüşleri olan ve yarısı buna karşı yarısı da idam cezasından yana olan deneklerle bir deney düzenlemişlerdir.[28][29] Her katılımcı idam cezası uygulanan ve uygulanmayan ABD eyâletlerinin bir karşılaştırması ile eyâletlere idam cezası getirilmeden önce ve sonra cinayet oranlarının karşılaştırmasından oluşan iki araştırma yazısını okumuştur. Her iki araştırma yazısının kısa özetini okuduktan sonra katılımcılara idam cezası hakkında görüşlerinin değişip değişmediği sorulmuştur. Daha sonra her iki araştırmanın nasıl yapıldığı hakkında daha detaylı okumadan sonra bu araştırmaların iyi yapılıp yapılmadığı ve inandırıcı olup olmadığı hakkında yorumları istenmiştir.[28] Aslında her iki çalışma da uydurmadır. Katılımcıların yarısına çalışmalardan birinin caydırıcılık etkisini kanıtladığı diğerinin ise bu etkiyi çürüttüğü söylenirken diğer yarısına araştırmalar için yapılan bu yorumlar değiştirilerek söylenmiştir.[28][29]
İdam cezasından yana ya da buna karşı olan katılımcılar, ilk okudukları araştırmadan sonra tutumlarının hafifçe de olsa buna doğru yöneldiklerini söylemişlerdir. Ancak iki araştırma hakkında da daha detaylı okuduktan sonra hemen hemen hepsi verilen kanıt ne olursa olsun, kendi görüşlerini detekleyen noktalara dikkat çekerek ve bu görüşe karşı olanları ise yok sayarak idam cezası hakkındaki ilk görüşlerine geri dönmüşlerdir. Katılımcılar idam cezası hakkındaki ilk görüşlerini destekleyen araştırmanın diğer araştırmaya göre daha üstün olduğunu detaylı bir şekilde tanımlamışlardır.[28][30] Caydırıcılık etkisini çürüttüğünü sandığı araştırma için idam cezasından yana olan bir denek şöyle yorum yaparken: "Araştırma yeteri kadar uzun bir dönemi kapsamamaktadır"; idam cezasına karşı olan bir başka denek ise aynı araştırmayı şöyle yorumlamıştır: "Araştırmacıların bulgularının aksini iddia edecek güçlü bir kanıt sunulamamıştır."[28] Bu deneyin sonucu kişilerin kendi beklentilerine karşı olan varsayımların kanıtlar için daha yüksek beklenti içinde olduklarını göstermektedir. "Reddetme yanlılığı" olarak bilinen bu etki başka deneylerle de desteklenmiştir.[31]
Yanlı yorumlama üzerine bir başka çalışma 2004 Amerika Birleşik Devletleri başkanlık seçimleri sırasında yapılmıştır. Bu deneye ABD başkan adaylarını hakkında güçlü duygulara sahip olduklarını söyleyen kişiler denek olarak katılmıştır. Deneklere Cumhuriyetçi Parti adayı George W. Bush'un, Demokrat Parti adayı John Kerry'nin ve kamuoyunda tanımış ama siyasi açıdan tarafsız bir kişinin görünüşe göre birbirleri ile çelişen ifadeleri gösterilmiştir. Bunlarla birlikte görünüşte olan bu çelişkili ifadelerin aslında mantıklı olabileceğini gösteren başka ifadeler de deneklere gösterilmiştir. Katılımcılardan bu farklı bilgilerden yararlanarak her bir kişinin ifadelerinin tutarsız olup olmadığına karar vermeleri istenmiştir.[32] Deneklerin ifadeleri değerlendirmesinde çok büyük farklılıklar bulunmuştur ve katılımcılar karşı oldukları adayın ifadelerini tutarsız bulmaya daha çok eğilim göstermişlerdir.[33]
Bu deney sırasında katılımcılar ifadeler hakkında yargılarını, beyin aktivitelerini izleyen manyetik rezonans görüntüleme (MR) cihazının içinde iken yapmışlardır. Katılımcılar destekledikleri adayların çelişkili ifadelerini değerlendirirken beyinlerinin duygusal merkezlerinde aktivite gözlemlenmiştir. Diğer iki kişinin ifadelerini değerlendirirken ise beynin duygusal merkezlerinde aynı aktivite görülmemiştir. Deneyi yapanlar buradan yola çıkarak deneklerin çelişkili ifadelere verdikleri farklı yanıtların pasif mantık hataları yüzünden olmadığı sonucunu çıkarmışlardır. Aksine, katılımcılar destekledikleri adayın irrasyonel ve ikiyüzlü davranışını okurken oluşan bilişsel çelişkiyi aktif olarak azaltmaktaydılar.[34]
İnançların yorumunda yanlılık zekâ düzeyinden bağımsız olarak kalıcıdır. Bir deneyde katılımcılar ABD'de üniversite eğitimi almak isteyenlerin girdiği SAT sınavına sokularak zekâ düzeyleri ölçüldükten sonra otomobiller ile ilgili güvenlik sorunları hakkında bazı bilgiler okumuşlardır. Bu bilgilerde otomobillerin menşei hakkındaki bilgiler özellikle deneyi yapanlar tarafından çarpıtılmıştır. Amerikalı katılımcılar, bir "kesinlikle evet" ve altı "kesinlikle hayır" olmak üzere altı dereceli bir skala üzerinde bir otomobilin kullanımının yasaklanması üzerine fikirlerini belirtmişlerdir. Denekler ilk olarak tehlikeli bir Alman otomobilinin ABD yollarında trafiğe çıkması ile tehlikeli bir Amerikan otomobilinin Almanya yollarında trafiğe çıkması konusunu değerlendirmişlerdir. Bu değerlendirmede katılımcıların tehlikeli bir Alman otomobilinin ABD'de kullanımının yasaklanması sonucuna tehlikeli bir Amerikan otomobilinin Almanya'da yasaklanması sonucundan daha hızlı bir şekilde ulaşmışlardır. Otomobilin kullanılmasının yasaklanmasını isteme oranında katılımcıların zekâ düzeyine göre bakıldığında bir farklılık görülmemiştir.[25]
Yanlı yorumlama yalnızca duygusal açıdan önemli konularla sınırlı değildir. Bir başka deneyde katılımcılara bir hırsızlıkla ilgili öykü anlatılmıştır. Katılımcılardan belirli bir kişinin bu hırsızlığı yapıp yapmadığı hakkında verilen ifadelerin kanıtsal önemini değerlendirmeleri istenmiştir. Kişinin suçlu olup olmadığı hakkında bir varsayım geliştirdikten sonra, verilen ifadelerden geliştirdikleri varsayımı destekleyen ifadeleri, bu varsayımla çelişen ifadelerden daha önemli olarak değerlendirmişlerdir.[35]
Yanlı bellek
değiştirKişiler kanıtları tarafsız bir gözle toplayıp yorumlasalar bile beklentilerini pekiştirmek için yine de bunları seçici bir şekilde anımsayabilirler. Bu etkiye "seçici bellek" denir.[36] Seçici bellek üzerinde farklı görüşlere sahip psikoloji kuramları bulunmaktadır. Şema kuramı önceki beklentilere uyan bilgilerin, uymayan bilgilere oranla daha kolay bellekte saklanacağını ve daha kolay erişileceğini yani anımsanacağını öngörür.[37] Buna alternatif bazı yaklaşımlar da şaşırtıcı bilgilerin sivrilerek daha kolay anımsanabileceğini söyler.[37] Farklı kuramların öngörüleri farklı deneysel bağlamlarda doğrulanmış dolayısıyla da bunların arasında hangisinin daha kabul edilebilir ortaya konamamıştır.[38]
Yapılan bir deneyde katılımcılara içedönük ve dışadönük karakter özellikleri sergileyen bir kadının profili gösterilmiş ve daha sonra da içedönük ve dışadönük karakter özelliklerine dair örnekleri hatırlamaları istenmiştir.[39] İlk gruba bu kadının kütüphanecilik işi için ikinci gruba işe emlakçılık işi için değerlendirildiği söylenmiştir. Bu iki grubun hatırladıkları arasında önemli bir faklılık görülmüştür; "kütüphaneci" grubu daha çok içedönüklük davranış örneği hatırlarken "emlakçılık" grubu daha çok dışadönük davranış biçimi hatırlamıştır.[39] Seçici bellek etkisi, arzu edilen karakter tiplerinin manipüle edildiği deneylerde de gösterilmiştir.[37][40] Bu tarz deneylerden birinde bir grup katılımcıya dışadönük insanların içedönük insanlara göre daha başarılı olduğuna dair kanıtlar gösterilmiştir. Diğer bir grupa ise bunun tam tersine dair kanıtlar verilmiştir. Daha sonra, görünüşte bu deney ile ilgisiz bir çalışmada aynı kişilere yaşamlarında içedönük ya da dışadönük davranışlarını hatırlamaları istenmiştir. İki gruptaki katılımcılar da kendilerine verilen arzu edilen karakter tipine uygun olan anılarını daha fazla ve daha çabuk hatırlamıştır.[41]
Ruh hâlinde değişiklikler de bellek erişimini etkileyebilir.[42][43] Bir deneyde katılımcılara O. J. Simpson'un cinayetten suçsuz bulunduğunu ilk öğrendiklerinde ne hissettiklerini değerlendirmeleri istenmiştir.[42] Katılımcılar ruh hâllerini ve mahkemenin verdiği karara olan güvenlerini olaydan bir hafta, iki ay ve bir yıl sonra tanımlamışlardır. Alınan sonuçlar katılımcıların Simpson'un suçu ya da suçsuzluğu ile ilgili değerlendirmelerinin zaman içinde değiştiğini göstermektedir. Katılımcıların mahkeme kararı hakkındaki görüşleri ne kadar çok değiştiyse kararı öğrendikleri ilk zaman hissettiklerine ait anıları o kadar daha az tutarlıydı. Katılımcılar iki ay ya da bir yıl sonra ilk duygusal tepkilerini hatırlamaları istendiğinde bunları o anki duygusal tepkileri neyse ona yakın olarak tanımlamışlardır. İnsanlar tartışmalı konular üzerine olan fikirlerini tartışırken önemli ölçüde olayları "kendilerine göre" yargılama davranışı göstermektedir.[25] Bellekten erişilen anılar ve yaşananların yeniden hatırlanması değişen ruh hâllerine göre değişiklik gösterir.
Kişilerin "kendilerine göre" olan yargılama davranışının hatırlamanın doğruluğunu etkilediği de deneylerle gösterilmiştir.[43] Yapılan bir deneyde dul kalan kişilerden, eşlerinin ölümünden altı ay ve beş yıl sonra hissettikleri ıstırap duygusunu değerlendirmeleri istenmiştir. Katılımcılar altı ay sonra yaptıkları değerlendirmede beş yıl sonra yaptıklarına göre daha büyük bir ıstırap duygusu hissettiklerini söylemişlerdir. Ancak beş yıl sonra katılımcılara eşlerinin ölümünden altı ay sonra nasıl hissettikleri sorulduğunda ise hatırladıkları ıstırap duygusunun şiddeti o anda hissettikleri ıstırap duygusunun şiddeti ile yüksek korelasyona sahip olduğu görülmüştür. Bireylerin o an içinde oldukları ruh hâli ile geçmişte nasıl hissetmiş olduklarını analiz ettikleri görülmektedir.[42] Duygusal anılar güncel ruh hâli ile yeniden oluşturulmaktadır.
Bir başka deneyde de seçici belleğin duyular dışı algılama ya da altıncı his üzerine olan inancı nasıl sürdürdüğü gösterilmiştir.[44] Duyular dışı algılamaya inananlar ve inanmayanlardan olan katılımcılara altıncı his deneyleri hakkında tanımlamalar gösterilmiştir. Grubun yarısına deneylerin duyular dışı algılamayı desteklediği diğer yarısına da desteklemediği söylenmiştir. Daha sonra yapılan bir testte duyular dışı algılamaya inanan ama bunun olmadığına dair kanıtları okuyan katılımcılar haricindekiler verilen bilgileri hatırlamışlardır. Bu grup önemli ölçüde az bilgi hatırlamalarının yanı sıra bazıları da bilgilerin duyular dışı algılamayı desteklediği yönünde olarak yanlış hatırlamıştır.[44]
İlgili etkiler
değiştirGörüş kutuplaşması
değiştirKarşıt görüşlere sahip kişiler yeni bilgiyi yanlı olarak yorumladıklarında görüşleri birbirlerinden daha da uzaklaşabilir. Buna "tavır kutuplaşması" denir.[45] Bu etki deneklerin iki içi görülmeyen torbadan bir dizi kırmızı ya da siyah top çekmelerinden oluşan bir deneyle gösterilmiştir. Katılımcılar bir torbanın %60 siyah ve %40 kırmızı top, diğer torbanın da %40 siyah ve %60 kırmızı top içerdiğini bilmektedirler. Deneyi yapanlar arka arkaya farklı renkte topların çekildiğinde yani hangi torbanın olduğunun anlaşılamadığı durumda ne olduğunu incelediler. Bir gruptaki katılımcıya, her top çekildikten sonra torbanın hangisi olduğu olasılığına dair yargılarını yüksek sesle söylemeleri istenmiştir. Bu katılımcılar, başta torbanın %60 siyah top ya da %60 kırmızı top içerdiğinin daha muhtemel olduğu düşünmelerinden bağımsız olarak, yargılarına uyan her başarılı top çekişten sonra kendilerine güveni ve olasılığa yönelik tahmin başarıları artmıştır. Diğer katılımcılar ise her top çekişinden sonra değil, bir dizi top çekildikten sonra hangi torba olması olasılığına yönelik soru sorulmuştur. Bu katılımcılar kutuplaşma etkisini göstermemiş olması bu etkinin insanların yalnızca karşıt görüşlere sahip olduklarında değil ancak bunlara açık olarak bağlandıklarını gösterdiklerinde ortaya çıktığını önermektedir.[46]
Daha az soyut bir çalışma Stanford Üniversitesi'nde idam cezası hakkında kesin görüşleri olan deneklerin katıldığı ve deney sırasında bu konuda karşıt deneysel kanıtları okudukları yanlı yorumlama deneyidir.[28][29] Katılımcıların %23'ü görüşlerinin daha da keskinleştiğini ifade etmişler ve bu bildirilen kayma ilk görüşleri ile oldukça güçlü bir korelasyona sahiptir.[28] Daha sonra yapılan deneylerde de katılımcılar iki anlamlı bilgiler karşısınde görüşlerinin daha da keskinleştiğini bildirmişlerdir. Ancak yeni kanıt sunulmadan önce ve sonra olan tavırları karşılaştırıldığında önemli bir değişiklik görülmemesi, kişilerin bildirdikleri bu değişikliğin gerçek olmayabileceğini önerir.[31][45][47] Bu deneyler ışığında Deanna Kuhn ve Joseph Lao, kutuplaşmanın gerçek ama yalnızca çok az durumda ortaya çıkan ve kaçınılmaz olmayan bir fenomen olduğu sonucuna vardılar. Bulguları kutuplaşmanın yalnızca karşıt kanıtları değerlendirmeyle değil aynı zamanda yalnızca konu hakkında düşünmekle bir olduğu yönündedir.[45]
Charles Taber ve Milton Lodge ise Stanford ekibinin deney sonuçlarını tekrarlamanın zor olduğunu çünkü sonraki deneylerdeki konuların duygusal bir tepki oluşturmak için ya çok soyut ya da çok kafa karıştırıcı tasarlandığını ileri sürmüşlerdir. Taber ve Lodge'un araştırmasında bireysel silahlanma ve pozitif ayrımcılık gibi duygusal yaklaşılan konular kullanılmıştır.[31] Bu deneye katılanların tavırları tartışmalı konuların karşıt taraflarının görüşlerinin okunmasından önce ve sonra ölçülmüştür. Önceden çok keskin görüşlere sahip olanlar ile siyasi bilgisi olanların oluşturduğu iki grup katılımcı bu konular hakkında tavır kutuplaşması sergilemişlerdir. Bu çalışmanın bir bölümünde katılımcıların okuyacakları bilgi kaynaklarını hazırlanan bir listeden seçmesi istenmiştir. Örneğin bireysel silahlanma üzerine isterlerse bunu destekleyen ABD'nin "National Rifle Association" (Ulusal Tüfek Derneği) adlı sivil toplum örgütüne ait kaynakları ya da buna karşı çıkan ABD'nin "Brady Campaign" adlı sivil toplum örgütüne ait kaynakları okumak için seçebilmekteydiler. Tarafsız davranmaları söylenmelerine rağmen katılımcılar konu hakkındaki var olan görüşlerini destekleyen kaynakları desteklemeyenlere nazaran okumak için daha büyük eğilim göstermişlerdir. Bu yanlı bilgi arama tavır kutuplaşması ile iyi bir korelasyon göstermiştir.[31]
Geri tepme etkisi, inançlarına karşıt kanıtlar sunulduğunda insanların bunları reddedederek inançlarına eskisinden daha da fazla bağlanmalarıdır.[48][49] Bu tanımlama ilk olarak Brendan Nyhan ve Jason Reifler tarafından terim olarak kullanılmıştır.[50]
Güveni sarsılmış inançlarda ısrar
değiştir—Lee Ross and Craig Anderson[51]
Bazı inançların oluşmalarına neden olan ilk kanıtların ortadan kalkmasına rağmen neden hâlâ durduklarını açıklamak için doğrulama yanlılığı kavramı kullanılabilir.[52] Bu inanç ısrarı etkisi, "debriefing paradigması" adı verilen bir yöntem kullanılan bir dizi deneyle gösterilmiştir. Denekler önce bir varsayımı kantılayan uydurma kanıtları okuduktan sonra tutum değişiklikleri ölçülmüş ve sonra da okudukları kanıtların uydurma olduğu kendilerine açıklanmıştır. Bundan sonra inançlarının daha önceki düzeye gelip gelmediğini anlamak için tutum değişiklikleri tekrar ölçülmüştür.[51]
Deneylerde ortaya çıkan ortak sonuç elde edilen ilk inancın, tamamıyla uydurma kanıtlara dayandığı anlatılıp gösterilse bile en azından kısmen devam ettiğidir.[53] Deneylerden birinde katılımcılardan gerçek ve sahte intihar notlarını ayırt etmeleri istenmiştir. Katılımcılara gelişigüzel geribesleme yapılmış, kimine iyi bir performans gösterdiği söylenirken kimine de kötü bir performans gösterdikleri söylenmiştir. Gerçek sonuçlar tamamıyla gösterildikten sonra bile katılımcıların hâlâ ilk yapılan geribeslemenin etkisi altında oldukları gözlemlenmiştir. Katılımcılar hâlâ kendilerine ilk olarak söylenen performanslarına göre bu konuda ortalamanın altında ya da üstünde olduklarını düşünmekteydiler.[54]
Bir başka çalışmada deneklerden iki itfaiyecinin iş performansı raporları ile riskten kaçınma testi sonuçlarını okumaları istenmiştir.[51] Bu kurgusal veriler olumlu ya da olumsuz bir korelasyon kuracak şekilde ayarlanmıştır; yani katılımcılardan bazılarına risk alabilen itfaiyecinin performansının daha iyi olduğu diğerlerine de tam tersi riskten kaçınan itfaiyecinin performansının daha iyi olduğu söylenmiştir.[55] Hatta bu iki kurgusal veri doğru bile olmuş olsa genel olarak itfaiyeciler hakkında bir yargıya varmak için bilimsel olarak çok yetersiz kanıtlar olacaklardır. Ancak katılımcılar bu verileri sübjektif olarak inandırıcı bulmuşlardır.[55] Verilerin kurgusal olduğu gösterildiğinde katılımcıların risk alma ve performans ile ilgili ilişkiye olan inançlarında bir azalma görülse de ilk etkinin yarısı kadarı devam etmiştir.[51] Daha sonra yapılan görüşmelerde katılımcıların yapılan açıklamayı anladığı ve ciddiye aldıkları belirlenmiştir. Katılımcıların yapılan açıklamaya güvendikleri ancak geçerliliği ortadan kalan bilginin kişisel inançları ile ilgisi olmadığını düşünmektedirler.[51]
Sürekli nüfuz etkisi, daha sonradan düzeltilmiş olsa bile önceden öğrenilmiş yanlış bilgilere inanma eğilimidir. Yanlış bilgiler düzeltildikten sonra bile kişinin yapacağı çıkarımları hâlâ etkileyebilmeye devam etmektedir.[56]
İlk bilgiyi üstün tutma
değiştirDeneyler, sıralaması önemsiz olsa bile bir dizi içinde ilk verilen bilginin daha etkili göründüğünü göstermektedir. Örneğin insanlar "zeki, çalışkan, atılgan, tenkitçi, inatçı, kıskanç" diye tanımlanan biri hakkında aynı sıfatların sıralaması tersine çevrilerek tanımlanmasına göre daha fazla olumlu bir izlenim edinmektedirler.[57] Bu irrasyonel öncelik etkisi, bir dizi içinde yer alan bilgilerin önce gelenlerinin bellekte daha kalıcı iz bırakması olan bellek öncelik etkisinden bağımsızdır.[57] Yanlı yorumlama bu etkiyi şöyle açıklayabilir: İlk kanıtı görür görmez insanların oluşturduğu varsayım sonradan gelen bilgilerin nasıl yorumlanacağını etkilemektedir.[52]
İrrasyonel öncelik etkisi sözde iki çanaktan çekilen renkli fişlerin kullanıldığı bir deneyle gösterilmiştir. Deneklere çanaklardaki fiş renklerinin dağılımı söylenmiş ve fişlerin hangi çanaktan çekildiğini tahmin etmeleri istenmiştir.[57] Aslında fişlerin renkleri önceden belirlenmişti. İlk otuz fiş bir çanağı sonraki otuz fişte ikinci çanağı destekliyordu.[52] Dizinin tamamı ise iki çanağa da eşit olasılık veriyordu; dolayısıyla rasyonel olarak iki çanaktan da fişlerin çekilme olasılığı eşitti. Ancak ilk altmış fiş çekiminden sonra katılımcılar ilk otuz çekimde desteklenen çanaktan fişlerin çekildiğini tahmin etmişlerdir.[57]
Bir başka deneyde de katılımcılar önce yalnızca bulanık bir görüntüsü olan bir nesnenin görüntüsü yansı ile gösterilmiş ve sonradan gelen her yansıda bu bulanıklık yavaş yavaş azaltılmıştır.[57] Her yansıdan sonra katılımcılardan bu nesnenin ne olduğunu tahmin etmeleri istenmiştir. İlk tahminleri yanlış olan katılımcılar, yansılardaki resmin bulanıklığı yeteri kadar azaldıktan sonra nesne başka kişiler tarafından kolaylıkla tanınabilecek hâle gelmişken bile ilk yanlış tahminlerinde ısrar etmişlerdir.[52]
Olaylar arasında yanılsamalı bağlantı
değiştirYanılsama korelasyonu bir veri kümesi içinde var olmayan korelasyonları görme eğilimidir.[58] Bu eğilim ilk olarak 1960'ların sonunda yapılan bir dizi deneyle gösterilmiştir.[59] Bir deneyde katılımcılar aralarında Rorschach testine verilen cevaplar da dahil olmak üzere psikiyatrik vaka dosyalarını okumuşlardır. Katılımcılar, vakalar içinde yer alan homoseksüel erkeklerin Rorschach testindeki belirsiz mürekkep lekelerinde kıç, anüs ya da cinsel figürler görmelerinin daha muhtemel olduğunu bildirmişlerdir. Aslında kurgusal olarak yaratılan vaka dosyaları homoseksüel erkeklerin mürekkep lekelerinde bu imgeleri daha az görebilecekleri şeklinde uydurulmuştu; hatta deneyin bir versiyonunda da vaka dosyaları bu imgeleri heteroseksüel erkeklerden daha az görecekleri yününde kurgulanmıştı.[58] Yapılan bir ankette de bir grup deneyimli psikoanalist homoseksüellikle ilgili aynı yanılsamaları bağlantıları bildirmişlerdir.[58][59]
Bir başka çalışmada 15 ay boyunca artrit hastalarının yaşadıkları semptomlarla hava durumu kaydedilmiştir. Hemen hemen tüm hastalar ağrılarının hava durumu ile bağlantılı olduğunu bildirmişlerdir ancak gerçekte ağrıları ile hava durumu arasında hiçbir korelasyon bulunamamıştır.[60]
Objektif olarak etkisiz ya da karşıt kanıtların var olan inançları desteklemesi olan bu etki bir tür yanlı yorumlamadır. Aynı zamanda varsayım sınama davranışındaki yanlılıklarla da ilgilidir.[61] Örneğin hastalık ve kötü hava gibi iki olayın arasında bir korelasyon olup olmadığına karar verirken insanlar asıl olarak olumlu-olumlu örneklere dayanmaktadırlar, yani bu örnek için hem ağrının hem de kötü havanın olduğu zamanlar. Ağrısız ve kötü hava ya da ağrılı ve iyi hava gibi diğer gözlemlere çok az dikkat etmektedirler.[62] Bu davranış varsayım sınamada olumlu sınamalara güvenme ile paralellik gösterir.[61] Aynı zamanda bu etki, iki olayın aynı zamanda olduğu zamanların hatırlanmasının daha kolay olması nedeniyle insanların bu iki olayın bağlantılı olduğunu düşünmelerine yol açan seçici hatırlamayı da yansıtır.[61]
Bireysel farklılıklar
değiştirKendince haklılığın bir zamanlar daha yüksek zekâ ile ilişkili olduğuna inanılmaktaydı ancak çalışmalar kendince haklılığın zekâ düzeyinden çok mantıklı düşünebilmeden daha çok etkilenebildiğini ortaya koymuştur.[25] Kendince haklılık karşıt bir argümanın etkin ve mantıklı bir şekilde değerlendirme yetersizliğine neden olabilmektedir. Çalışmalar kendince haklılığın "aktif açık fikirlilik" eksikliği olduğunu yani ilk düşüncenin yanlış olabileceğini aktif olarak araştırmama olduğunu göstermiştir.[63] Tipik olarak kendince haklılık, kendi varsayımlarını destekleyen kanıtların miktarının varsayımı desteklemeyen kanıtların miktarına göre fazlalığı ile deneysel çalışmalarda kendini gösterir.[64]
Yapılan bir araştırma kendince haklılık kavramında bireysel farklılıkların olduğunu ortaya koymuştur. Bu araştırma kültürel bir bağlamda öğrenme yoluyla elde edilen ve değişebilen bireysel farklılıkları incelemiştir. Araştırmacılar, irdeleme yöntemlerinde önemli kişisel farklılıklar bulmuşlardır. Araştırmalar tümdengelimli mantık becerisi, inanç yanlılığını aşabilme becerisi, epistemolojik anlayış ve düşünme yatkınlığı gibi bireysel farklılıkların mantıksal yolla sav oluşturma, karşı sav oluşturma ya da savları çürütme gibi becerilerin önemli öncülleri olduğunu önermektedir.[65][66][67]
Christopher Wolfe ve Anne Britt de yaptıkları bir araştırmada katılımcıların "bir savı iyi yapan nedir?" konusundaki görüşlerinin, kişinin kendi savlarını oluşturma yollarını etkileyen kendince haklılığa nasıl bir kaynak olduğunu incelemişlerdir.[64] Araştırma sav oluşturma şemasında bireysel farklılıkları araştırmış ve katılımcılardan deneme yazmaları istenmiştir. Katılımcılardan tercih ettikleri bir sava gelişigüzel olarak karşı çıkan ya da destekleyen denemeler yazmaları istenmiş veya dengeli bir yaklaşım ya da sınırsız bir yaklaşım içeren araştırma talimatları verilmiştir. Dengeli araştırma talimatları katılımcılardan "dengeli" yani hem karşı hem de destekleyici kanıtların olduğu bir şekilde araştırmanın yapılmasını isterken sınırsız araştırma talimatında savların nasıl ortaya konacağı hakkında bir sınır konmamıştır.[64]
Genel olarak, dengeli araştırma talimatlarının yazılan denemelerde savlara karşı olan bilgilerin de bulunması sıklığını önemli ölçüde artırmıştır. Bu veriler aynı zamanda kişisel inancın kendince haklılığın bir kaynağı olmadığını da göstermektedir. Ancak, iyi bir savın gerçeklere dayanması gerektiğine inanan katılımcıların diğer katılımcılara oranla daha fazla kendince haklılık göstermeye eğilimli oldukları görülmüştür. Bu deney sonuçları Jonathan Baron'un kişilerin iyi düşünme hakkındaki görüşlerinin savların oluşturulmasını etkileyebileceği yönündeki görüşleri ile de tutarlıdır.[64]
Tarihçe
değiştirTarihsel gözlemler
değiştirDoğrulama yanlılığı üzerine psikolojik araştırmalardan önce bu fenomen üzerine tarih boyunca yapılan çeşitli gözlemler aktarılmıştır. Antik Yunan tarihçi Tukididis (yak. M.Ö. 460 - yak. M.Ö. 395) Peloponez Savaşlarının Tarihi adlı eserinde yanlış yola sevkedilmiş ihanet hakkında şöyle yazmıştır: "... çünkü özlem duydukları için ihmalkâr umuda bel bağlamak ve hoşlarına gitmeyeni yoksaymak için egemen mantığı kullanmak insanoğlunun bir âdetidir."[68] İtalyan şair Dante Alighieri'nin (1265–1321) İlâhi Komedya adlı şaheserinde, Aquinolu Thomas Cennet'te karşılaştığı Dante'yi şöyle uyarır, "çünkü acele verilen karar, çoğu kez hatalı yöne kayar ve bu karara duyulan sevgi aklı bağlar"[69] İngiliz filozof ve bilim insanı Francis Bacon (1561–1626),[70] Novum Organum adlı eserinde kanıtların yanlı olarak değerlendirilmesinin "ister astrolojide, ister rüyalarda, kehânetlerde, ilâhi yargılarda ya da benzerlerinde olsun tüm bâtıl inançlara" yol açtığını söylemiştir.[71] Bacon şöyle yazmıştır:
Bir kere bir fikri kabul etti mi insan anlayışı ... diğer her şeyi bunu desteklemek ve hemfikir olmak üzere düzenler. Ve diğer tarafta çok sayıda ve önemli ağırlıkta misaller olsa da bunları ya gözardı eder ya küçümser, ya da bazı istisnalarla kenara koyar ya da reddeder[.][71]
Rus romancı Lev Tolstoy, "Sanat Nedir?" (1897) denemesinde şöyle yazmıştır:
Biliyorum ki insanların çoğu — yalnızca zeki oldukları düşünülenler değil aynı zamanda çok zeki olup da en zor bilim, matematik ya da felsefe problemlerini anlamaya muktedir olanlar — eğer ki vardıkları sonuçların — gurur duydukları, başkalarına öğrettikleri ve yaşamlarını üzerine kurdukları sonuçlar — yanlışlığını kabul etmek zorunda kalacakları en basit ve en bariz gerçeğin bile nadiren farkına varabilirler.[72]
Wason'un varsayım sınama araştırması
değiştirDoğrulama yanlılığı (İngilizce: confirmation bias) terimi ilk olarak İngiliz psikolog Peter Wason tarafından kullanılmıştır.[73] 1960 yılında yayımladığı bir deneyde deneklerden sayı üçlüleri için uygulanmış bir kuralı tanımlamalarını istemiştir. Deneyin başında katılımcılara (2,4,6) sayı üçlüsünün kurala uyduğu söylenmiştir. Katılımcılar kendi oluşturdukları sayı üçlülerini deneyi yapana söyleyecek ve onun kurala uyup uymadığını söylemesine göre kuralı tespit edeceklerdi.[74][75]
Kuralın aslında basitçe "herhangi bir artan sayı dizisi" olmasına rağmen katılımcılar bu kuralı tespit etmek için büyük zorluk çekmiş ve sıklıkla "ortadaki sayı ilk ve son sayının ortalamasıdır" gibi çok daha karmaşık kurallar öne sürmüşlerdir.[74] Katılımcıların kural olarak öne sürdükleri varsayımlara uyan sayı üçlülerini yani yalnızca olumlu örnekleri sınadıkları gözlemlenmiştir. Örneğin kuralın "her sayı öncekinden iki büyüktür" olduğunu varsaydıklarında deneyi yapana bu kurala uyan (11,13,15) üçlüsünü sınamak için sormayı bu kurala uymayan (11,13,15) üçlüsünü sormaya tercih etmişlerdir.[76]
Wason, bir varsayımın bilimsel sınanmasının onu yanlışlama için ciddi bir girişim olduğunu söyleyen yanlışlanabilirlik kavramını kabul etmektedir. Deneyin sonuçlarını yanlışlama yerine doğrulama üzerine bir eğilim gösterilmesi olarak yorumladığından "doğrulama yanlılığı" terimini ortaya atmıştır.[c][78] Wason aynı zamanda doğrulama yanlılığı fenomenini seçme görevi deneyinin sonuçlarını açıklamak için de kullanmıştır.[79] Bu görevde katılımcılara bir nesne kümesi hakkında kısmi bilgi verilmekte ve bir nesnel koşul kuralının (eğer A ise B) var olup olmadığı için hangi bilginin daha gerektiğini belirtmeleri istenmektedir. Tekrar tekrar yapılan bu deneyin farklı türlerinde bulunanlar kişilerin başarılı olamadığını ve çoğu durumda ortaya koydukları kuralı çürütecek bilgileri yok saydıklarını göstermektedir.[80][81]
Klayman ve Ha'nın eleştirisi
değiştirJoshua Klayman ve Young-Won Ha'nın 1987 tarihli çalışmasında Wason'un deneylerinin aslında doğrulama yönünde yanlılığı göstermediği iddia edilmiştir. Klayman ve Ha, Wason deneylerinin sonuçlarını var olan bir varsayım ile uyumlu sınama yapma eğilimi olarak yorumlamışlardır.[82] Bu fenomene "olumlu sınama stratejisi" adını vermişlerdir.[12] Bu strateji, mükemmel olmayan ama hesaplaması kolay olan mantıksal bir kısayol olarak görülen buluşsal yönteme örnektir.[1] Klayman ve Ha varsayım sınama standardı olarak yanlışlanabilirliği kullanan Wason'un aksine Bayesci olasılık ve bilişim kuramını kullanmışlardır. Bu kuramlara göre bir soruya verilen her cevap, kişinin önceki inançlarına bağlı olarak, farklı miktarlarda bilgi verir. Dolayısıyla bir varsayımın bilimsel sınanmasında en çok bilgiyi verecek sorunun sorulması beklenmektedir. Bilginin içeriği başlangıç olasılıklarına bağlı olacağından ötürü olumlu bir sınama oldukça bilgilendirici olabildiği gibi hiçbir bilgi vermeyebilir de. Klayman ve Ha, kişilerin gerçekçi problemler hakkında düşündükleri zaman, küçük bir başlangıç olasılığıyla belirli bir cevap aradıklarını iddia etmişlerdir. Bu durumda olumlu testler genellikle olumsuz testlerden daha çok bilgi içerir.[17] Ancak Wason'ın kural bulma görevinde artan üç sayı dizisi kuralı çok geniş bir kural olduğu için olumlu testlerin bilgi içermesi pek mümkün değildir. Klayman ve Ha bu analizlerini, "kurala uyar" ve "kurala uymaz" yerine "DAX" ve "MED" nitelemeleri kullandıkları bir deneyleri ile desteklemişlerdir. Bu şekilde düşük olasılıklı bir kural bulma amacını ima edilmesinden kaçınılmıştır. Denekler, deneyin bu şeklinde daha çok başarılı olmuşlardır.[83][84]
Bu ve diğer eleştirilerin ışığında araştırmanın odağı yanlışlamanın karşısında doğrulama olmaktan çok kişilerin varsayımları bilgi içerecek yöntemlerle ya da bilgi içermeyecek ama olumlu yöntemlerle sınayıp sınamadıkları üzerine doğru yönelmiştir. "Gerçek" doğrulama yanlılığını araştırmak için psikologlar kişilerin bilgiyi nasıl işlediğinin incelendiği daha geniş bir alandaki etkilere bakmaya yöneltmiştir.[85]
Açıklamalar
değiştirDoğrulama yanlılığı sıklıkla kastî bir aldatmadan çok otomatik, kasıtsız stratejilerin sonucu olarak tanımlanmıştır.[18][86] Robert Maccoun'a göre, yanlı kanıt değerlendirmenin çoğu hem "soğuk" (bilişsel) hem de "sıcak" (motive edilmiş) mekanizmaların bileşimiyle meydana gelir.[87]
Doğrulama yanlılığının bilişsel açıklamaları kişilerin karmaşık görevlerle başa çıkabilme becerilerindeki sınırlar ile buluşsal yöntem adı verilen kullandıkları kısa yollar üzerine temellendirilmiştir.[88] Örneğin kişiler vir kanıtın güvenilirliğine ulaşılabilirlik buluşsal yöntemi ile yani belirli bir fikrin ne kadar kolayca akla gelmesiyle karar verebilirler.[89] Aynı zamanda kişilerin bir kerede yalnızca bir fikre yoğunlaşabilmeleri mümkündür; bu durumda alternatif varsayımları aynı anda sınamada zorlanacaklardır.[90] Diğer bir buluşsal yöntem Klayman ve Ha tarafından tanımlanan olumlu sınama stratejisidir. Bu stratejide kişiler bir varsayımı sınarken bekledikleri özelliklerin ortaya çıkacağı durumları sınarlar. Bu buluşsal yöntem, varsayımı sınamak için mümkün olan her sorunun bulunması gibi mümkün olmayan bir görevden sıyrılmayı sağlar. Ancak evrensel olarak güvenilir değildir dolayısıyla kişler var olan inançlarına karşı olan meydan okumaları göz ardı edebilirler.[17][91]
Motivasyona yönelik açıklamalar, bazen hüsnükuruntu da denilen, inanç üzerinde arzunun etkisini içerir.[92][93] Kişilerin nahoş düşünceler yerine hoşa giden düşünceleri tercih ettikleri bilinmektedir ve buna Pollyanna prensibi denir.[94] Savlara ya da kanıt kaynaklarına uygulandığında, bu prensip arzu edilen sonuçlara neden daha çok doğru olarak inanıldığına açıklama getirir.[92] Sonuçların arzulanabilirliğini manipüle eden deneylere göre kişiler nahoş fikirlerin kanıtlanması için daha yüksek standartlara sahip iken tercih edilen fikirlerin kanıtlanmasında standartları daha düşüktür. Diğer bir deyişle bazı öneriler için "Buna inanabilir miyim?" diye sorarken diğerleri için "Buna inanmalı mıyım?" diye sorarlar.[95][96] Her ne kadar tutarlılık tavırlarda arzulanan bir nitelik olsa da aşırı tutarlı olma dürtüsü de yanlılık için bir başka potansiyel kaynaktır çünkü bu dürtü kişleri yeni ve şaşırtıcı bilgileri tarafsız olarak değerlendirmekten alıkoyar.[92] Sosyal psikolog Ziva Kunda bilişsel ve motivasyonel kuramları birleştirerek motivasyonun yanlılığı yarattığını ancak bilişsel faktörlerin bunun etkisinin büyüklüğünü belirlediğini iddia eder.[97]
Maliyet yarar analizi terimleri ile yapılan açıklamalar kişilerin varsayımları sınamada çok da ilgisiz olmadıklarını ve farklı hataların maliyetini değerlendirdiklerini varsayar.[98] Evrimsel psikolojinin fikirlerini kullanan James Friedrich, kişilerinin varsayımları sınarken asıl amaçlarının doğruyu bulmak olmadığını, asıl olarak en çok zararı verecek hatalardan kaçınmayı hedeflediklerini önerir. Örneğin işverenler, iş görüşmelerinde adaylara tek yanlı sorular sorabilirler çünkü daha çok uygun olmayan adayları eleme üzerine yoğunlaşmışlardır.[99] Bu kuramın Yaacov Trope ve Akiva Liberman tarafından saflaştırılmış hâli kişilerin yanlış bir varsayımı kabul etme ile doğru bir varsayımı reddetme gibi iki farklı hata türünü kıyasladıklarını varsayar. Örneğin bir arkadaşının dürüstlüğünü küçümseyen biri ona şüpheyle yaklaşabilir ve dolayısıyla da arkadaşlıklarını bozabilir. Arkadaşının dürüstlüğünü abartmak da zararlı olabilir ama küçümsemekten daha az zarar verir. Bu durumda, arkadaşlarının dürüstlüğü için kanıtları arama, değerlendirme ve hatırlamada yanlı olmak daha rasyonel olabilmektedir.[100] Bir kişi verdiği ilk izlenim içe dönük ya da dışa dönük ise, bu izlenime uygun soruların gelmesi daha empatiktir.[101] Dolayısıyla, içe dönük görünen bir kişiye "Gürültülü partileri sever misiniz?" yerine "Sosyal ortamlarda garip hisseder misiniz?" diye sormak daha iyi bir sosyal beceriye sahip olunduğunun göstergesidir. Doğrulama yanlılığı ile sosyla beceriler arasındaki bağlantı, üniversite öğrencilerinin diğer insanları nasıl tanıdığını araştıran bir çalışmayla desteklenmiştir. Kendi kendini izleme becerisi yüksek olan ve çevreleri ile sosyal normlara karşı daha hassas olan öğrencilerin daha yüksek statüde olan üniversite çalışanları ile görüşürken, kendi akranlarıyla görüştüklerinden daha uygun sorular sordukları görülmüştür.[101]
Psikologlar Jennifer Lerner ve Philip Tetlock iki farklı düşünme sürecini ayırt ederler: Araştırmacı düşünce tarafsız olarak farklı görüş açılarını değerlendirir ve belirli bir öneriye karşıt mümkün olan tüm noktaları öngörmeye çalışır; doğrulayıcı düşünce ise belirli bir görüş açısını haklı göstermeye çalışır. Lerner ve Tetlock, kişilerin görüşlerini bildikleri diğer kişilere kendi önerilerini haklı çıkartmayı beklediklerinde, diğer kişilerin önerilerine benzer savları benimseyeceklerini ve sonra da doğrulayıcı düşünce süreci ile kendi inanılırlıklarını güçlendireceklerini söylerler. Ancak diğer taraf aşırı derecede saldırgan ya da eleştirel iseler, kişilerin düşünce sürecinden tamamen vazgeçerek savlarını haklı çıkarmak için yalnızca kişisel fikirlerini belirteceklerdir.[102] Lerner ve Tetlock, kişilerin kendilerini eleştirel ve mantıksal düşünmeye zorlamaya yalnızca önceden kendilerini açıklamak zprunda kalacakları kişilerin bilgili, gerçekten gerçek ile ilgilendiklerini ve görüşlerini önceden bilmedikleri kişiler olduğunu bildikleri durumda başvuracaklarını söylerler.[103] Bu koşulların nadiren oluşması nedeniyle, çoğu insanın çoğu zaman doğrulayıcı düşünce sürecini kullandığını iddia ederler.[104]
Sonuçları
değiştirFinansta
değiştirDoğrulama yanlılığı yatırımcıları aşırı güvenli hissetmeye ve yatırım stratejilerinin para kaybettireceğine dair kanıtları göz ardı etmelerine yol açar.[10][105] Seçim borsaları üzerine yapılan araştırmalar, doğrulama yanlılığına en çok direnç gösteren yatırımcıların daha çok kazandığını göstermektedir. Örneğin, bir adayın münazara performansını partizanca değil de tarafsızca yorumladıklarında dah fazla kâr yapmaları daha muhtemeldir.[106] Doğrulama yanlılığı ile mücadele edebilmek için yatırımcılar, karşıt bir görüş açısı farz etmeyi deneyebilirler.[107] Bir başka teknikte de yatırımlarının battığını hayâl ederek kendilerine bunun neden olduğu sorusunu sorabilirler.[10]
Fiziksel ve zihinsel sağlıkta
değiştirPsikolog Raymond Nickerson, bilimsel tıp uygulamalarının ortaya çıkışından önce yüzyıllar boyunca etkisiz tıbbi işlemlerin uygulanmasından doğrulama yanlılığını sorumlu tutar.[108] Eğer bir hasta iyileşirse, örneğin hastalığın doğal seyrini tamamlamış olması gibi alternatif açıklamalar aramak yerine tıbbi otoriteler bu tedaviyi başarılı saymışlardır.[108] Destekçilerinin olumlu gözlemsel kanıtlara kapılıp bilimsel kanıtlara karşı aşırı eleştirel yaklaştıkları alternatif tıbbın günümüzdeki cazibesinde yanlı özümseme önemli bir faktördür.[109][110][111]
Aaron T. Beck tarafından 1960'ların başında geliştirilen bilişsel terapi popüler bir yaklaşım hâline gelmiştir.[112] Beck'e göre yanlı bilgi işleme süreci depresif duygudurumunda bir faktördür.[113] Yaklaşımı insanlara kanıtları olumsuz sonuçlarını güçlendirecek seçicilikle değil tarafsız olarak irdelemelerini öğretir.[114] Fobilerin ve hipokondriyanın da tehdit edici bilgilerin işleme sürecinde doğrulama yanlılığı içerdiği gösterilmiştir.[115]
Siyasette ve hukukta
değiştirNickerson, hukuki ve siyasi bağlamlarda akıl yürütmenin bazen bilinçaltından gelen yanlılıkla daha önceden yargıçların, jürilerin ya da hükûmetlerin vardıkları sonuçları kayırdığını iddia eder.[116] Jürinin karar verdiği duruşmalarda kanıtlar karmaşık olabileceğinden ve jüri üyelerinin mahkeme kararı hakkında sıklıkla daha mahkemenin başlarında karara ulaştıklardan bir tavır kutuplaşması etkisi görülmesini beklemek akla yatkındır. Jüri üyelerinin daha da çok kanıt gördüklerinde görüşlerinin daha da keskinleştiği tahmini mock trial (sahte duruşma) deneylerinden ortaya çıkmıştır.[117][118] Hem soruşturmacı hem de çekişmeli ceza hukuku sistemleri doğrulama yanlılığından etkilenmektedirler.[119]
Doğrulama yanlılığı, tarafların kanıtları kendi lehlerine yorumlaması ve her iki tarafın da daha güçlü konumda olduğuna dair aşırı güven duymasıyla, duygusal olarak gergin geçen tartışmalardan savaşlara kadar anlaşmazlıkların ortaya çıkmasında ve uzamasında, bir faktör olabilir.[120] Diğer yanda, doğrulama yanlılığı insanların, olması yakın ya da başlangıç aşamasındaki anlaşmazlıkların belirtilerini göz ardı etmesi ya da yanlış yorumlamasıyla sonuçlanabilir. Örneğin Stuart Sutherland ve Thomas Kida gibi psikologlar, Amerikalı Amiral Husband Kimmel'in Japonya'nın Pearl Harbor Saldırısının ilk belirtilerini önemsiz olarak değerlendirmesinde doğrulama yanlılığı gösterdiğini iddia etmişlerdir.[80][121]
Philip E. Tetlock'un yirmi yıl boyunca siyasi yorumcular üzerine yaptığı araştırma sonucunda genel olarak bakıldığında bu yorumcuların öngörülerinin tesadüften daha iyi olmadığı ortaya konmuştur. Tetlock uzman yorumcuları çok sayıda varsayımı değerlendiren "tilkiler" ve daha dogmatik "kirpiler" olarak ikiye ayırmıştır. Genel olarak kirpilerin tahminlerinde çok daha hatalı oldukları görülür. Tetlock, bunların öngörü hatalarını doğrulama yanlılığına, özellikle de var olan teorileriyle çelişen yeni bilgileri kullanamamalarına bağlamıştır.[122]
ABD'de 2013 yılında görülen bir cinayet davasında sanık David Camm'in savunma avukatları müvekkillerinin eşi ve iki çocuğunun cinayetinden suçlanmasının nedeninin cinayet soruşturmasında görülen doğrulama yanlılığı olduğunu iddia etmişlerdir.[123] Camm, cinayetlerden üç gün sonra hatalı kanıtlar nedeniyle tutuklanmıştı. Cinayet soruşturmasında ortaya konan tüm delillerin eksik ya da güvenilmez olduğunun kanıtlanmasına rağmen, isnat edilen cinayet suçlaması düşürülmemiştir.[124][125] Cinayet mahallinde bulunan bir eşofmanda bilinen bir hükümlünün DNA'sının bulunduğu, eşofman üzerinde bu hükümlünün hapishanede iken kullandığı takma adı ile hapishane numarasının olduğu sonradan ortaya çıkarılmıştır.[126] Cinayeti soruşturanlar, eşofman üzerinde Camm'in DNA'sını aramış ama eşofman üzerindeki diğer kanıtları incelememiş ve bulunan yabancı DNA örneği cinayetten beş yıl sonraya kadar sistemde araştırılmamıştır.[127][128] İkinci şüpheli ortaya çıkarıldığında, bu kişinin Camm ile bağlantısını ortaya koyan bir delil olmamasına rağmen savcılık makamı hem Camm'ı hem de ikinci şüpheliyi suçu birlikte işlemekle suçlamışlardır.[129][130] Camm, cinayetlerden suçsuz bulunarak beraat etmiştir.[131]
Paranormalde
değiştirPsişiklerin yorumlarının çekiciliğinde rol oynayan bir faktör de bu yorumları dinleyenlerin kendi yaşamları ile psişiğin ifadelerini örtüştürücü şekilde doğrulama yanlılığı ile yaklaşmalarıdır.[132] Her seansta çok sayıda her anlama gelebilen ifadeler kullanan psişik böylece dinleyenlere kendi yaşamları ile bağlantı kurabilecekleri ifadeler bulma olasılığını artırır. Bu teknik, müşterileri hakkında önceden hiçbir bilgiye sahip olmayan psişiklerin subjektif olarak etkileyici olmaları için kullandıkları soğuk okuma tekniklerinden biridir.[132] Araştırmacı James Randi, bir müşteriye psişiğin söyledikleri ile müşterinin bu söylenenler hakkında yazdıklarını kıyasladığında, müşterinin söylenenler içinde kendisine uyan ifadelere için güçlü bir seçici bellek uyguladığını görmüştür.[133]
Nickerson gerçek dünyada doğrulama yanlılığının çarpıcı bir örneği olarak Mısır piramitlerinin oranlarından anlam çıkarma olan nümerolojik piramitolojiden söz eder.[134] Örneğin Keops Piramidi için çok sayıda, farklı uzunluk ölçümleri yapılabilir ve bu ölçümler çok farklı şekillerde birleştirilerek çeşitli oranlar çıkarılabilir. Dolayısıyla bu çıkan sonuçlara seçici olarak bakan kişilerin, yüzeysel olarak örneğin Dünya'nın boyutları ile çarpıcı benzerlikler bulmaları kaçınılmazdır.[134]
Bilimde
değiştirBilimsel yöntemin ayırt edici özelliklerinden birisi de varsayımların sınanmasında doğrulayıcı olduğu kadar yanlışlayıcı kanıtların da araştırılmasıdır.[135] Ancak bilim tarihinde çok kere bilim insanlarının yeni keşiflere verileri seçici olarak yorumlayarak ya da yok sayarak karşı çıktıkları görülmüştür.[135] Yapılan araştırmalar, bilimsel araştırmaların kalitesinin değerlendirilmesinin özellikle doğrulama yanlılığına açık olduğunu göstermiştir. Çok sayıda araştırmada bilim insanlarının daha önceki inançları ile uyumlu bulguları olan araştırmaları uyumsuz bulguları olan araştırmalara göre daha lehinde değerlendirdikleri ortaya konmuştur.[86][136][137] Ancak, araştırmanın konu ile ilgili olduğunu, tasarlanan deneyin yeterli olduğunu ve bulunan verilerin açıkça ve anlaşılır bir şekilde tanımlandığını varsayarsak, araştırma sonucu bilim topluluğu için önemlidir dolayısıyla da güncel kuramsal tahminlere uyup uymadığına bakılmaksızın, önyargısız bir şekilde değerlendirilmelidir.[137]
Bilimsel araştırma bağlamında doğrulama yanlılığı yetersiz ve hatta karşıt kanıtlara rağmen kuramları ve ve araştırma programlarını destekleyebilir;[138][139] parapsikoloji dalı özellikle bundan etkilenmektedir.[140]
Deney yapan bir bilim insanının doğrulama yanlılığı potansiyel olarak deney sonucunda hangi verilerin raporlanacağını etkileyebilir. Deneycinin beklentileri ile uyuşmayan veriler çok kolay göz ardı edilebilerek yayımlama yanlılığı denilen etki oluşabilir. Bu eğilimle mücadele edebilmek için bilim eğitiminde yanlılığı engelleme yöntemleri öğretilir.[141] Örneğin rastgele seçilmiş kontrol gruplu deney tasarımları ve deneylerin sistematik olarak gözden geçirilmesi yanlılık kaynaklarını en aza indirgemeyi amaçlar.[141][142] Akran denetimi sosyal sürecinin bilim insanlarının bireysel yanlılığının etkilerini azalttığı düşünülmektedir,[143] ancak akran denetimi sürecinin kendisi de bu tür yanlılıklardan etkilenmeye müsaittir.[137][144][145] Doğrulama yanlılığı özellikle varsayımlara uymayan sonuçların objektif olarak değerlendirilmesinde oldukça zararlı olabilmektedir çünkü karşıt kanıtlara prensip olarak zayıf gözüyle yanlı olarak bakan insanlar inançlarını gözden geçirmeyi pek dikkate almayabilirler.[136] Bilimsel alanda yeni buluş yapanlar sıklıkla bilim insanları topluluğundan direnç görür ve tartışmalı sonuçlar sunan araştırmaların akran denetimi sonuçları çok insafsız olabilir.[146]
Öz imgesinde
değiştirSosyal psikologlar kişinin kendisi hakkında bilgi arama ve bilgiyi yorumlama konusunda iki tür eğilimi tanımlanmışlardır: Varolan öz imgesini güçlendirme dürtüsü olan kendini doğrulama ile olumlu geri besleme arama dürtüsü olan kendini yüceltme. Her ikisi de doğrulama yanlılığı ile beslenir.[147] Kişilere öz imgeleri ile çatışan geri besleme yapılan deneylerde, kendilerini doğrulayan geri beslemelerden daha az kulak verme ya da daha az anımsama eğiliminde oldukları görülmüştür.[148][149][150] Bu eğilimler, bu tarz bilgileri güvenilmez olarak yorumlayarak etkisini azaltır.[148][151][152] Benzer deneyler olumsuz geri besleme yerine olumlu geri beslemeyi hem verme hem de alma yönünde bir eğilim tespit etmişlerdir.[147]
Ayrıca bakınız
değiştirKaynakça
değiştirNotlar
değiştir- ^ Tuchman bir hükûmetin izlediği politikaları haklı çıkarmak sürecinde görülen bir çeşit doğrulama yanlılığını tanımlamıştır: "Bir politika kabul edilip uygulandığında, sonradan vukubulan tüm eylemler bu politikayı haklı çıkarma çabası hâline gelir.[4]
ABD'yi Vietnam'da savaşın içine çeken ve başından beri bu savaşın kaybedileceğine dair sayısız kanıtlar bulunmasına rağmen Amerika Birleşik Devletleri Ordusunu 16 yıl boyunca bu savaşın içinde tutan politikanın tartışılması bağlamında Tuchman şu fikirlerinde ısrar eder:
Özaldatının kaynağı olan kalın kafalılık hükûmette dikkat çekici şekilde önemli bir rol oynar. Bu bir durumun değerlendirilmesi sırasında karşıt belirtilerin görmezlikten gelinmesi ya da reddedilmesi ile birlikte önceden tasarlanmış sabit fikirler temelinde yapılmasıdır. Gerçeklere değil temennilere göre hareket etmektir. Tüm hükümdarların en kalın kafalısı olan İspanyol kralı II. Felipe'nin bir tarihçi tarafından şu tanımlamasıyla özetlenebilir: "[Hiçbir zaman] politikasının başarısız olma deneyimi doğal mükemmeliyeti üzerine olan inancını yıkamazdı."[5]
Tuchman, budalalığın "karşı kanıtlara rağmen sabit bir kavram üzerinde ısrar" olarak belirtilebilen bir çeşit özaldatı olduğunu ileri sürmektedir.[6]
- ^ "Özümseme yanlılığı", kanıtların yanlı olarak yorumlanması için kullanılan bir başka terimdir.[9]
- ^ Wason aynı zamanda "doğruluğunu onaylama yanlılığı" anlamına gelen İngilizce "verification bias" terimini de kullanmıştır.[77]
Özel
değiştir- ^ a b Plous 1993, s. 233.
- ^ Nickerson 1998.
- ^ Tuchman 1984.
- ^ Tuchman 1984, s. 245.
- ^ Tuchman 1984, s. 7.
- ^ Tuchman 1984, s. 209.
- ^ Darley & Gross 2000, s. 212.
- ^ Risen & Gilovich 2007.
- ^ Risen & Gilovich 2007, s. 113.
- ^ a b c Zweig, Jason (19 Kasım 2009). "How to Ignore the Yes-Man in Your Head". Wall Street Journal. Dow Jones & Company. 1 Mart 2010 tarihinde kaynağından arşivlendi. Erişim tarihi: 13 Haziran 2010.
- ^ Nickerson 1998, s. 177–78.
- ^ a b c d Kunda 1999, s. 112–15.
- ^ a b Baron 2000, s. 162-164.
- ^ Kida 2006, s. 162–165.
- ^ Devine, Hirt & Gehrke 1990.
- ^ Trope & Bassok 1982.
- ^ a b c Klayman & Ha 1987.
- ^ a b c Oswald & Grosjean 2004, s. 82–83.
- ^ Kunda et al. 1993.
- ^ a b Shafir 1993.
- ^ Snyder & Swann, Jr. 1978.
- ^ a b Kunda 1999, s. 117-118.
- ^ a b Albarracin & Mitchell 2004.
- ^ a b Fischer et al. 2010.
- ^ a b c d Stanovich, West & Toplak 2013.
- ^ a b Mynatt, Doherty & Tweney 1978.
- ^ Kida 2006, s. 157.
- ^ a b c d e f g Lord, Ross & Lepper 1979.
- ^ a b c Baron 2000, s. 210-202.
- ^ Vyse 1997, s. 122.
- ^ a b c d Taber & Lodge 2006.
- ^ Westen et al., s. 1948.
- ^ Westen et al., s. 1951.
- ^ Westen et al., s. 1956.
- ^ Gadenne & Oswald 1986.
- ^ Hastie & Park 2005, s. 394.
- ^ a b c Oswald & Grosjean 2004, s. 88–89.
- ^ Stangor & McMillan 1992.
- ^ a b Snyder & Cantor 1979.
- ^ Kunda 1999, s. 225–32.
- ^ Sanitioso, Kunda & Fong 1990.
- ^ a b c Levine et al.
- ^ a b Safer, Bonanno & Field 2001.
- ^ a b Russell & Jones 1980.
- ^ a b c Kuhn & Lao 1996.
- ^ Baron 2000, s. 201.
- ^ Miller et al. 1993.
- ^ "backfire effect". The Skeptic's Dictionary. 6 Şubat 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 26 Nisan 2012.
- ^ Silverman, Craig (17 Haziran 2011). "The Backfire Effect". Columbia Journalism Review. 22 Aralık 2016 tarihinde kaynağından arşivlendi. Erişim tarihi: 1 Mayıs 2012.
When your deepest convictions are challenged by contradictory evidence, your beliefs get stronger.
- ^ Nyhan & Reifler 2010.
- ^ a b c d e Ross & Anderson 1982.
- ^ a b c d Nickerson 1998, s. 187.
- ^ Kunda 1999, s. 99.
- ^ Ross, Lepper & Hubbard 1975.
- ^ a b Anderson, Lepper & Ross 1980.
- ^ Johnson & Seifert 1994.
- ^ a b c d e Baron 2000, s. 197–200.
- ^ a b c Fine 2006, s. 66–70.
- ^ a b Plous 1993, s. 164–66.
- ^ Redelmeir & Tversky 1996.
- ^ a b c Kunda 1999, s. 127–130.
- ^ Plous 1993, s. 162–164.
- ^ Baron 1995.
- ^ a b c d Wolfe & Britt 2008.
- ^ Mason & Scirica 2006.
- ^ Weinstock 2009.
- ^ Weinstock, Neuman & Tabak 2004.
- ^ Thucydides. "The Peloponnesian War". 4 Şubat 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Mart 2017.
- ^ Alighieri, Dante. Cennet On üçüncü kanto: 118–20. çev. Rekin Teksoy
- ^ Baron 2000, s. 195–196.
- ^ a b Bacon, Francis (1620). Novum Organum. Burtt, E.A., (Ed.) (1939). The English philosophers from Bacon to Mill. New York: Random House. s. 36.
- ^ Tolstoy, Leo. Sanat Nedir? p. 124 (1899). Tanrı'nın Hükümdarlığı Kendi İçimizdedir (1893) eserinde de benzer bir şekilde "En zor konular bile en kalın kafalılara, eğer o kişi daha önceden bir fikre sahip değilse, açıklanabilir; ancak en basit şey bile en zeki insana eğer o kişi zaten onu önceden bildiğine kâni olmuş ise, önünde durmasına rağmen, şüphe duymacak şekilde açıklanamaz." (bölüm 3) diye yazmıştır.
- ^ Gale & Ball 2002.
- ^ a b Wason 1960.
- ^ Nickerson 1998, s. 179.
- ^ Lewicka 1998, s. 238.
- ^ Poletiek 2001, s. 73.
- ^ Oswald & Grosjean 2004, s. 79–96.
- ^ Wason 1968.
- ^ a b Sutherland 2007, s. 95-103.
- ^ Barkow, Cosmides & Tooby 1995, s. 181–184.
- ^ Oswald & Grosjean 2004, s. 81–82, 86–87.
- ^ Lewicka 1998, s. 239.
- ^ Tweney et al.
- ^ Oswald & Grosjean 2004, s. 86–89.
- ^ a b Hergovich, Schott & Burger 2010.
- ^ Maccoun 1998.
- ^ Friedrich 1993, s. 298.
- ^ Kunda 1999, s. 94.
- ^ Nickerson 1998, s. 198–99.
- ^ Nickerson 1998, s. 200.
- ^ a b c Nickerson 1998, s. 197.
- ^ Baron 2000, s. 206.
- ^ Matlin 2004, s. 255–272.
- ^ Dawson, Gilovich & Regan 2002.
- ^ Ditto & Lopez 1992.
- ^ Nickerson 1998, s. 198.
- ^ Oswald & Grosjean 2004, s. 91–93.
- ^ Friedrich 1993, s. 299, 316–17.
- ^ Trope & Liberman 1996.
- ^ a b Dardenne & Leyens 1995.
- ^ Shanteau 2003, s. 445.
- ^ Haidt 2012, s. 1473–1474.
- ^ Lindzey, edited by Susan T. Fiske, Daniel T. Gilbert, Gardner (2010). The handbook of social psychology (5.5erişimtarihi=3 Mart 2017 bas.). Hoboken, N.J.: Wiley. s. 811. ISBN 0-470-13749-5. 26 Ocak 2020 tarihinde kaynağından arşivlendi.
- ^ Pompian 2006, s. 187-190.
- ^ Hilton 2001.
- ^ Krueger & Mann 2009, s. 112–13.
- ^ a b Nickerson 1998, s. 192.
- ^ Goldacre 2008, s. 233.
- ^ Singh & Ernst 2008, s. 287–288.
- ^ Atwood 2004.
- ^ Neenan & Dryden 2004, s. ix.
- ^ Blackburn & Davidson 1995, s. 19.
- ^ Baron 2000, s. 195–96.
- ^ Harvey, Watkins & Mansell 2004, s. 172–73, 176.
- ^ Nickerson 1998, s. 191–93.
- ^ Myers & Lamm 1976.
- ^ Halpern 1987, s. 194.
- ^ Roach 2010.
- ^ Baron 2000, s. 191, 195.
- ^ Kida 2006, s. 155.
- ^ Tetlock 2005, s. 125–28.
- ^ "David Camm Blog: Investigation under fire". WDRB. 10 Ekim 2013. 21 Haziran 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 6 Mart 2017.
- ^ Kircher, Travis. "David Camm blogsite: opening statements". WDRB. 6 Şubat 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 3 Ocak 2014.
- ^ "David Camm v. State of Indiana" (PDF). Court of Appeals of Indiana. 15 Kasım 2011. 2 Mart 2017 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 6 Mart 2017.
- ^ Boyd, Gordon (10 Eylül 2013). "Camm trial 9/10: Defense finds inconsistencies but can't touch Boney's past". WBRC. 14 Haziran 2015 tarihinde kaynağından arşivlendi. Erişim tarihi: 6 Mart 2017.
- ^ Zambroski,James. "Witness Says Prosecutor In First Camm Trial Blew Up When She Couldn't Link Camm's DNA To Boney's Shirt". WAVE News. 1 Nisan 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 6 Mart 2017.
- ^ Eisenmenger, Sarah (9 Eylül 2013). "Convicted Killer Charles Boney says David Camm was the shooter". wave3. 29 Eylül 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 Ocak 2014.
- ^ Eisenmenger, Sarah (9 Eylül 2013). "Convicted Killer Charles Boney says David Camm was the shooter". wave3. 29 Eylül 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 6 Mart 2017.
- ^ Adams, Harold J. (18 Şubat 2011). "David Camm's attorney's appeal ruling, seek prosecutor's removal". Courier Journal. s. B1.
- ^ David Camm verdict: NOT GUILTY 7 Nisan 2017 tarihinde Wayback Machine sitesinde arşivlendi., WDRB TV, 24 Ekim 2013
- ^ a b Smith 2009, s. 149-151.
- ^ Randi 1991, s. 58–62.
- ^ a b Nickerson 1998, s. 190.
- ^ a b Nickerson 1998, s. 192–94.
- ^ a b Koehler 1993.
- ^ a b c Mahoney 1977.
- ^ Sutherland 2007, s. 95–103.
- ^ Proctor & Capaldi 2006, s. 68.
- ^ Sternberg 2007.
- ^ a b Shadish 2007, s. 49.
- ^ Jüni, Altman & Egger 2001.
- ^ Shermer 2006.
- ^ Emerson et al.
- ^ Bartlett 2011, s. 147-177.
- ^ Horrobin 1990.
- ^ a b Swann, Pelham & Krull 1989.
- ^ a b Swann & Read 1981a.
- ^ Story 1998.
- ^ White, Brockett & Overstreet 1993.
- ^ Swann & Read 1981b.
- ^ Shrauger & Lund 1975.
Genel
değiştir- Albarracin, D.; Mitchell, A.L. (2004). "The Role of Defensive Confidence in Preference for Proattitudinal Information: How Believing That One Is Strong Can Sometimes Be a Defensive Weakness". Personality and Social Psychology Bulletin. 30 (12). ss. 1565-1584. doi:10.1177/0146167204271180.
- Anderson, Craig A.; Lepper, Mark R.; Ross, Lee (1980). "Perseverance of Social Theories: The Role of Explanation in the Persistence of Discredited Information". Journal of Personality and Social Psychology. 39 (6). American Psychological Association. ss. 1037-1049. doi:10.1037/h0077720. ISSN 0022-3514.
- Atwood, Kimball (2004). "Naturopathy, Pseudoscience, and Medicine: Myths and Fallacies vs Truth". Medscape General Medicine. 6 (1). s. 33.
- Barkow, Jerome H.; Cosmides, Leda; Tooby, John (1995). The adapted mind: evolutionary psychology and the generation of culture. Oxford University Press US. ISBN 978-0-19-510107-2. OCLC 33832963.
- Baron, Jonathan (1995). "Myside bias in thinking about abortion". Thinking & Reasoning. ss. 221-35.
- Baron, Jonathan (2000). Thinking and deciding (3.3yer=New York bas.). Cambridge University Press. ISBN 0-521-65030-5. OCLC 316403966.
- Bartlett, Steven James (2011). "The Psychology of Abuse in Publishing: Peer Review and Editorial Bias". Normality Does Not Equal Mental Health: The Need to Look Elsewhere for Standards of Good Psychological Health. Santa Barbara, CA: Praeger.
- Blackburn, Ivy-Marie; Davidson, Kate M. (1995). Cognitive therapy for depression & anxiety: a practitioner's guide (2 bas.). Wiley-Blackwell. ISBN 978-0-632-03986-9. OCLC 32699443.
- Dardenne, Benoit; Leyens, Jacques-Philippe (1995). "Confirmation Bias as a Social Skill". Personality and Social Psychology Bulletin. 21 (11). Society for Personality and Social Psychology. ss. 1229-1239. doi:10.1177/01461672952111011. ISSN 1552-7433.
- Darley, John M.; Gross, Paget H. (2000). "A Hypothesis-Confirming Bias in Labelling Effects". Stangor, Charles (Ed.). Stereotypes and prejudice: essential readings. Psychology Press. ISBN 978-0-86377-589-5. OCLC 42823720.
- Dawson, Erica; Gilovich, Thomas; Regan, Dennis T. (Ekim 2002). "Motivated Reasoning and Performance on the Wason Selection Task" (PDF). Personality and Social Psychology Bulletin. 28 (10). Society for Personality and Social Psychology. ss. 1379-1387. doi:10.1177/014616702236869. 12 Haziran 2015 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 30 Eylül 2009.
- Devine, Patricia G.; Hirt, Edward R.; Gehrke, Elizabeth M. (1990). "Diagnostic and confirmation strategies in trait hypothesis testing". Journal of Personality and Social Psychology. 58 (6). American Psychological Association. ss. 952-63. doi:10.1037/0022-3514.58.6.952. ISSN 1939-1315.
- Ditto, Peter H.; Lopez, David F. (1992). "Motivated skepticism: use of differential decision criteria for preferred and nonpreferred conclusions". Journal of Personality and Social Psychology. 63 (4). American Psychological Association. ss. 568-584. doi:10.1037/0022-3514.63.4.568. ISSN 0022-3514.
- Johnson, Hollyn M.; Seifert, Colleen M. (Kasım 1994). "Sources of the continued influence effect: When misinformation in memory affects later inferences". Journal of Experimental Psychology: Learning, Memory, and Cognition. 20 (6). ss. 1420-36. doi:10.1037/0278-7393.20.6.1420.
- Jüni, P.; Altman, D. G.; Egger, M. (2001). "Systematic reviews in health care: Assessing the quality of controlled clinical trials". BMJ (Clinical research ed.). 323 (7303). ss. 42-46. doi:10.1136/bmj.323.7303.42. PMC 1120670 $2. PMID 11440947.
- Emerson, G. B.; Warme, W. J.; Wolf, F. M.; Heckman, J. D.; Brand, R. A.; Leopold, S. S. (2010). "Testing for the Presence of Positive-Outcome Bias in Peer Review: A Randomized Controlled Trial". Archives of Internal Medicine. 170 (21). ss. 1934-39. doi:10.1001/archinternmed.2010.406. PMID 21098355.
- Fine, Cordelia (2006). A Mind of its Own: how your brain distorts and deceives. Cambridge, UK: Icon books. ISBN 1-84046-678-2. OCLC 60668289.
- Fischer, P.; Fischer, Julia K.; Aydın, Nilüfer; Frey, Dieter (2010). "Physically Attractive Social Information Sources Lead to Increased Selective Exposure to Information". Basic and Applied Social Psychology. 32 (4). ss. 340-47. doi:10.1080/01973533.2010.519208.
- Friedrich, James (1993). "Primary error detection and minimization (PEDMIN) strategies in social cognition: a reinterpretation of confirmation bias phenomena". Psychological Review. 100 (2). American Psychological Association. ss. 298-319. doi:10.1037/0033-295X.100.2.298. ISSN 0033-295X. PMID 8483985.
- Gadenne, V.; Oswald, M. (1986). "Entstehung und Veränderung von Bestätigungstendenzen beim Testen von Hypothesen [Formation and alteration of confirmatory tendencies during the testing of hypotheses]". Zeitschrift für experimentelle und angewandte Psychologie. 33 (360–74).
- Gale, Maggie; Ball, Linden J. (2002). Gray, Wayne D.; Schunn, Christian D. (Ed.). Does Positivity Bias Explain Patterns of Performance on Wason's 2-4-6 task?. Proceedings of the Twenty-Fourth Annual Conference of the Cognitive Science Society. Routledge. s. 340. ISBN 978-0-8058-4581-5. OCLC 469971634.
- Goldacre, Ben (2008). Bad Science. Londra: Fourth Estate. ISBN 978-0-00-724019-7. OCLC 259713114.
- Haidt, Jonathan (2012). The Righteous Mind : Why Good People are Divided by Politics and Religion. New York: Pantheon Books. ISBN 0-307-37790-3.
- Halpern, Diane F. (1987). Critical thinking across the curriculum: a brief edition of thought and knowledge. Lawrence Erlbaum Associates. ISBN 978-0-8058-2731-6. OCLC 37180929.
- Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004). Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment. Oxford University Press. ISBN 978-0-19-852888-3. OCLC 602015097.
- Hastie, Reid; Park, Bernadette (2005). "The Relationship Between Memory and Judgment Depends on Whether the Judgment Task is Memory-Based or On-Line". Hamilton, David L. (Ed.). Social cognition: key readings. New York: Psychology Press. ISBN 0-86377-591-8. OCLC 55078722.
- Hergovich, Andreas; Schott, Reinhard; Burger, Christoph (2010). "Biased Evaluation of Abstracts Depending on Topic and Conclusion: Further Evidence of a Confirmation Bias Within Scientific Psychology". Current Psychology. 29 (3). ss. 188-209. doi:10.1007/s12144-010-9087-5.
- Hilton, Denis J. (2001). "The psychology of financial decision-making: Applications to trading, dealing, and investment analysis". Journal of Behavioral Finance. 2 (1). Institute of Behavioral Finance. ss. 37-39. doi:10.1207/S15327760JPFM0201_4. ISSN 1542-7579.
- Horrobin, David F. (1990). "The philosophical basis of peer review and the suppression of innovation". Journal of the American Medical Association. 263 (10). ss. 1438-41. doi:10.1001/jama.263.10.1438. PMID 2304222.
- Kida, Thomas E. (2006). Don't believe everything you think: the 6 basic mistakes we make in thinking. Amherst, New York: Prometheus Books. ISBN 978-1-59102-408-8. OCLC 63297791.
- Klayman, Joshua; Ha, Young-Won (1987). "Confirmation, Disconfirmation and Information in Hypothesis Testing" (PDF). Psychological Review. 94 (2). American Psychological Association. ss. 211-28. doi:10.1037/0033-295X.94.2.211. ISSN 0033-295X. 1 Ekim 2011 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 14 Ağustos 2009.
- Koehler, Jonathan J. (1993). "The influence of prior beliefs on scientific judgments of evidence quality". Organizational Behavior and Human Decision Processes. Cilt 56. ss. 28-55. doi:10.1006/obhd.1993.1044.
- Krueger, David; Mann, John David (2009). The Secret Language of Money: How to Make Smarter Financial Decisions and Live a Richer Life. McGraw Hill Professional. ISBN 978-0-07-162339-1. OCLC 277205993.
- Kuhn, Deanna; Lao, Joseph (Mart 1996). "Effects of Evidence on Attitudes: Is Polarization the Norm?". Psychological Science. 7 (2). American Psychological Society. ss. 115-20. doi:10.1111/j.1467-9280.1996.tb00340.x.
- Kunda, Ziva; Fong, G.T.; Sanitoso, R.; Reber, E. (1993). "Directional questions direct self-conceptions". Journal of Experimental Social Psychology. Cilt 29. Society of Experimental Social Psychology. ss. 62-63. doi:10.1006/jesp.1993.1004. ISSN 0022-1031.
- Kunda, Ziva (1999). Social Cognition: Making Sense of People. MIT Press. ISBN 978-0-262-61143-5. OCLC 40618974.
- Levine, L.; Prohaska, V.; Burgess, S.L.; Rice, J.A.; Laulhere, T.M. (2001). "Remembering past emotions: The role of current appraisals". Cognition and Emotion. Cilt 15. ss. 393-417. doi:10.1080/02699930125955.
- Lewicka, Maria (1998). "Confirmation Bias: Cognitive Error or Adaptive Strategy of Action Control?". Kofta, Mirosław; Weary, Gifford; Sedek, Grzegorz (Ed.). Personal control in action: cognitive and motivational mechanisms. Springer. ss. 233-55. ISBN 978-0-306-45720-3. OCLC 39002877.
- Lord, Charles G.; Ross, Lee; Lepper, Mark R. (1979). "Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence". Journal of Personality and Social Psychology. 37 (11). American Psychological Association. ss. 2098-2209. doi:10.1037/0022-3514.37.11.2098. ISSN 0022-3514.
- Maccoun, Robert J. (1998). "Biases in the interpretation and use of research results" (PDF). Annual Review of Psychology. Cilt 49. ss. 259-87. doi:10.1146/annurev.psych.49.1.259. PMID 15012470. 22 Haziran 2011 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 3 Mart 2017.
- Mahoney, Michael J. (1977). "Publication prejudices: an experimental study of confirmatory bias in the peer review system". Cognitive Therapy and Research. 1 (2). ss. 161-175. doi:10.1007/BF01173636.
- Mason, Lucia; Scirica, Fabio (Ekim 2006). "Prediction of students' argumentation skills about controversial topics by epistemological understanding". Learning and Instruction. 16 (5). ss. 492-509. doi:10.1016/j.learninstruc.2006.09.007.
- Matlin, Margaret W. (2004). "Pollyanna Principle". Pohl, Rüdiger F. (Ed.). Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory. Hove: Psychology Press. ss. 255-72. ISBN 978-1-84169-351-4. OCLC 55124398.
- Miller, A.G.; McHoskey, J.W.; Bane, C.M.; Dowd, T.G. (1993). "The attitude polarization phenomenon: Role of response measure, attitude extremity, and behavioral consequences of reported attitude change". Journal of Personality and Social Psychology. 64 (4). ss. 561-74. doi:10.1037/0022-3514.64.4.561.
- Myers, D.G.; Lamm, H. (1976). "The group polarization phenomenon". Psychological Bulletin. 83 (4). ss. 602-27. doi:10.1037/0033-2909.83.4.602.
- Mynatt, Clifford R.; Doherty, Michael E.; Tweney, Ryan D. (1978). "Consequences of confirmation and disconfirmation in a simulated research environment". Quarterly Journal of Experimental Psychology. 30 (3). ss. 395-406. doi:10.1080/00335557843000007.
- Neenan, Michael; Dryden, Windy (2004). Cognitive therapy: 100 key points and techniques. Psychology Press. ISBN 978-1-58391-858-6. OCLC 474568621.
- Nickerson, Raymond S. (Haziran 1998). "Confirmation Bias: A Ubiquitous Phenomenon in Many Guises". Review of General Psychology. 2 (2). ss. 175-220. doi:10.1037/1089-2680.2.2.175.
- Nyhan, Brendan; Reifler, Jason (Haziran 2010). "When corrections fail: the persistence of political misperceptions". Political Behavior. 32 (2). Springer Science+Business Media. ss. 303-330. doi:10.1007/s11109-010-9112-2.
- Oswald, Margit E.; Grosjean, Stefan (2004). "Confirmation Bias". Pohl, Rüdiger F. (Ed.). Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory. Hove, UK: Psychology Press. ss. 79-96. ISBN 978-1-84169-351-4. OCLC 55124398.
- Plous, Scott (1993). The Psychology of Judgment and Decision Making. OCLC: McGraw-Hill. ISBN 978-0-07-050477-6. 6 Mart 2015 tarihinde kaynağından arşivlendi. Erişim tarihi: 19 Ağustos 2013.
- Poletiek, Fenna (2001). Hypothesis-testing behaviour. Hove, UK: Psychology Press. ISBN 978-1-84169-159-6. OCLC 44683470.
- Pompian, Michael M. (2006). Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases. John Wiley and Sons. ISBN 978-0-471-74517-4. OCLC 61864118.
- Proctor, Robert W.; Capaldi, E. John (2006). Why science matters: understanding the methods of psychological research. Wiley-Blackwell. ISBN 978-1-4051-3049-3. OCLC 318365881.
- Randi, James (1991). James Randi: psychic investigator. Boxtree. ISBN 978-1-85283-144-8. OCLC 26359284.
- Redelmeir, D. A.; Tversky, Amos (1996). "On the belief that arthritis pain is related to the weather". Proceedings of the National Academy of Sciences. 93 (7). ss. 2895-2896. doi:10.1073/pnas.93.7.2895.
- Risen, Jane; Gilovich, Thomas (2007). "Informal Logical Fallacies". Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (Ed.). Critical Thinking in Psychology. Cambridge University Press. ISBN 978-0-521-60834-3. OCLC 69423179.
- Roach, Kent (2010). "Wrongful Convictions: Adversarial and Inquisitorial Themes". North Carolina Journal of International Law and Commercial Regulation. Cilt 35. SSRN 1619124 $2.
Both adversarial and inquisitorial systems seem subject to the dangers of tunnel vision or confirmation bias.
- Ross, Lee; Lepper, Mark R.; Hubbard, Michael (1975). "Perseverance in self-perception and social perception: Biased attributional processes in the debriefing paradigm". Journal of Personality and Social Psychology. 32 (5). American Psychological Association. ss. 880-892. doi:10.1037/0022-3514.32.5.880. ISSN 0022-3514. PMID 1185517.
- Ross, Lee; Anderson, Craig A. (1982). "Shortcomings in the attribution process: On the origins and maintenance of erroneous social assessments". Kahneman, Daniel; Slovic, Paul; Tversky, Amos (Ed.). Judgment under uncertainty: Heuristics and biases. Cambridge University Press. ss. 129-152. ISBN 978-0-521-28414-1. OCLC 7578020.
- Russell, Dan; Jones, Warren H. (1980). "When superstition fails: Reactions to disconfirmation of paranormal beliefs". Personality and Social Psychology Bulletin. 6 (1). Society for Personality and Social Psychology. ss. 83-88. doi:10.1177/014616728061012. ISSN 1552-7433.
- Safer, M.A.; Bonanno, G.A.; Field, N. (2001). ""It was never that bad": Biased recall of grief and long-term adjustment to the death of a spouse". Memory. 9 (3). ss. 195-203. doi:10.1080/09658210143000065.
- Sanitioso, Rasyid; Kunda, Ziva; Fong, G.T. (1990). "Motivated recruitment of autobiographical memories". Journal of Personality and Social Psychology. 59 (2). American Psychological Association. ss. 229-41. doi:10.1037/0022-3514.59.2.229. ISSN 0022-3514. PMID 2213492.
- Shadish, William R. (2007). "Critical Thinking in Quasi-Experimentation". Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (Ed.). Critical Thinking in Psychology. Cambridge University Press. ISBN 978-0-521-60834-3.
- Shafir, E. (1993). "Choosing versus rejecting: why some options are both better and worse than others". Memory and Cognition. 21 (4). ss. 546-556. doi:10.3758/bf03197186. PMID 8350746.
- Shermer, Michael (Temmuz 2006). "The Political Brain". Scientific American. ISSN 0036-8733. 19 Mart 2011 tarihinde kaynağından arşivlendi. Erişim tarihi: 14 Ağustos 2009.
- Shanteau, James (2003). Sandra L. Schneider (Ed.). Emerging perspectives on judgment and decision research. Cambridge [u.a.]: Cambridge University Press. ISBN 0-521-52718-X. 26 Ocak 2020 tarihinde kaynağından arşivlendi. Erişim tarihi: 3 Mart 2017.</ref>
- Shrauger, J. Sidney; Lund, Adrian K. (1975). "Self-evaluation and reactions to evaluations from others". Journal of Personality. 43 (1). Duke University Press. ss. 94-108. doi:10.1111/j.1467-6494.1975.tb00574. PMID 1142062.
- Singh, Simon; Ernst, Edzard (2008). Trick or Treatment?: Alternative Medicine on Trial. Londra: Bantam. ISBN 978-0-593-06129-9.
- Smith, Jonathan C. (2009). Pseudoscience and Extraordinary Claims of the Paranormal: A Critical Thinker's Toolkit. John Wiley and Sons. ISBN 978-1-4051-8122-8. OCLC 319499491.
- Snyder, Mark; Swann, Jr., William B. (1978). "Hypothesis-Testing Processes in Social Interaction". Journal of Personality and Social Psychology. 36 (11). American Psychological Association. ss. 1202-12. doi:10.1037/0022-3514.36.11.1202.
- Snyder, M.; Cantor (1979). "Testing hypotheses about other people: the use of historical knowledge". Journal of Experimental Social Psychology. 15 (4). ss. 330-42. doi:10.1016/0022-1031(79)90042-8.
- Stangor, Charles; McMillan, David (1992). "Memory for expectancy-congruent and expectancy-incongruent information: A review of the social and social developmental literatures". Psychological Bulletin. 111 (1). American Psychological Association. ss. 42-61. doi:10.1037/0033-2909.111.1.42.
- Stanovich, K. E.; West, R. F.; Toplak, M. E. (2013). "Myside Bias, Rational Thinking, and Intelligence". Current Directions in Psychological Science. 22 (4). ss. 259-264. doi:10.1177/0963721413480174.
- Sternberg, Robert J. (2007). "Critical Thinking in Psychology: It really is critical". Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (Ed.). Critical Thinking in Psychology. Cambridge University Press. ISBN 0-521-60834-1. OCLC 69423179.
- Story, Amber L. (1998). "Self-Esteem and Memory for Favorable and Unfavorable Personality Feedback". Personality and Social Psychology Bulletin. 24 (1). Society for Personality and Social Psychology. ss. 51-64. doi:10.1177/0146167298241004. ISSN 1552-7433.
- Sutherland, Stuart (2007). Irrationality (2.2yayıncı= Pinter and Martin bas.). Londra. ISBN 978-1-905177-07-3. OCLC 72151566.
- Swann, William B.; Read, Stephen J. (1981a). "Self-Verification Processes: How We Sustain Our Self-Conceptions". Journal of Experimental Social Psychology. 17 (4). Academic Press. ss. 351-72. doi:10.1016/0022-1031(81)90043-3. ISSN 0022-1031.
- Swann, William B.; Read, Stephen J. (1981b). "Acquiring Self-Knowledge: The Search for Feedback That Fits". Journal of Personality and Social Psychology. 41 (6). American Psychological Association. ss. 1119-28. doi:10.1037/0022-3514.41.6.1119. ISSN 0022-3514.
- Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989). "Agreeable Fancy or Disagreeable Truth? Reconciling Self-Enhancement and Self-Verification". Journal of Personality and Social Psychology. 57 (5). American Psychological Association. ss. 782-91. doi:10.1037/0022-3514.57.5.782. ISSN 0022-3514. PMID 2810025.
- Taber, Charles S.; Lodge, Milton (Temmuz 2006). "Motivated Skepticism in the Evaluation of Political Beliefs". American Journal of Political Science. 50 (3). Midwest Political Science Association. ss. 755-769. doi:10.1111/j.1540-5907.2006.00214.x. ISSN 0092-5853.
- Tetlock, Philip E. (2005). Expert Political Judgment: How Good Is It? How Can We Know?. Princeton, N.J.: Princeton University Press. ISBN 978-0-691-12302-8. OCLC 56825108.
- Trope, Yaacov; Bassok, Miriam (1982). "Confirmatory and diagnosing strategies in social information gathering". Journal of Personality and Social Psychology. 43 (1). American Psychological Association. ss. 22-34. doi:10.1037/0022-3514.43.1.22. ISSN 1939-1315.
- Trope, Y.; Liberman, A. (1996). "Social hypothesis testing: cognitive and motivational mechanisms". Higgins, E. Tory; Kruglanski, Arie W. (Ed.). Social Psychology: Handbook of basic principles. New York: Guilford Press. ISBN 978-1-57230-100-9. OCLC 34731629.
- Tuchman, Barbara (1984). The March of Folly: From Troy to Vietnam. New York: Knopf.
- Tweney, Ryan D.; Doherty, Michael E.; Worner, Winifred J.; Pliske, Daniel B.; Mynatt, Clifford R.; Gross, Kimberly A.; Arkkelin, Daniel L. (1980). "Strategies of rule discovery in an inference task". The Quarterly Journal of Experimental Psychology. 32 (1). Psychology Press. ss. 109-123. doi:10.1080/00335558008248237. ISSN 1747-0226.
- Vyse, Stuart A. (1997). Believing in magic: The psychology of superstition. New York: Oxford University Press. ISBN 0-19-513634-9. OCLC 35025826.
- Wason, Peter C. (1960). "On the failure to eliminate hypotheses in a conceptual task". Quarterly Journal of Experimental Psychology. 12 (3). Psychology Press. ss. 129-40. doi:10.1080/17470216008416717. ISSN 1747-0226.
- Wason, Peter C. (1968). "Reasoning about a rule". Quarterly Journal of Experimental Psychology. 20 (3). Psychology Press. ss. 273-28. doi:10.1080/14640746808400161. ISSN 1747-0226. PMID 5683766.
- Weinstock, Michael; Neuman, Yair; Tabak, Iris (Ocak 2004). "Missing the point or missing the norms? Epistemological norms as predictors of students' ability to identify fallacious arguments". Contemporary Educational Psychology. 29 (1). ss. 77-94. doi:10.1016/S0361-476X(03)00024-9.
- Weinstock, Michael (Aralık 2009). "Relative expertise in an everyday reasoning task: Epistemic understanding, problem representation, and reasoning competence". Learning and Individual Differences. 19 (4). ss. 423-34. doi:10.1016/j.lindif.2009.03.003.
- Westen, Drew; Blagov, Pavel S.; Harenski, Keith; Kilts, Clint; Hamann, Stephan (2006). "Neural Bases of Motivated Reasoning: An fMRI Study of Emotional Constraints on Partisan Political Judgment in the 2004 U.S. Presidential Election" (PDF). Journal of Cognitive Neuroscience. 18 (11). Massachusetts Institute of Technology. ss. 1947-58. doi:10.1162/jocn.2006.18.11.1947. PMID 17069484. 24 Mart 2012 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 14 Ağustos 2009.
- White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993). "Confirmatory Bias in Evaluating Personality Test Information: Am I Really That Kind of Person?". Journal of Counseling Psychology. 40 (1). American Psychological Association. ss. 120-26. doi:10.1037/0022-0167.40.1.120. ISSN 0022-0167.
- Wolfe, Christopher; Britt, Anne (2008). "The locus of the myside bias in written argumentation" (PDF). Thinking & Reasoning. Cilt 14. ss. 1-27. doi:10.1080/13546780701527674. 4 Mart 2016 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 1 Mart 2017.
Konuyla ilgili yayınlar
değiştir- Keohane, Joe (11 Temmuz 2010). "How facts backfire: Researchers discover a surprising threat to democracy: our brains". Boston Globe. NY Times. 6 Mart 2016 tarihinde kaynağından arşivlendi. Erişim tarihi: 6 Mart 2017.
- Leavitt, Fred (2015). Dancing with Absurdity: Your Most Cherished Beliefs (and All Your Others) are Probably Wrong. Peter Lang Publishers.
- Stanovich, Keith (2009). What Intelligence Tests Miss: The Psychology of Rational Thought. New Haven (CT): Yale University Press. ISBN 978-0-300-12385-2.
- Westen, Drew (2007). The political brain: the role of emotion in deciding the fate of the nation. PublicAffairs. ISBN 978-1-58648-425-5. OCLC 86117725.
Dış bağlantılar
değiştir- Skeptic's Dictionary: confirmation bias 14 Mart 2017 tarihinde Wayback Machine sitesinde arşivlendi. – Robert T. Carroll
- Teaching about confirmation bias 25 Şubat 2017 tarihinde Wayback Machine sitesinde arşivlendi. – K. H. Grobman
- Confirmation bias @ You Are Not So Smart 21 Mart 2017 tarihinde Wayback Machine sitesinde arşivlendi.
- Confirmation bias learning object 21 Mart 2017 tarihinde Wayback Machine sitesinde arşivlendi. – Rod McFarland'ın Simon Fraser Üniversitesi için interaktif sayı üçlüleri alıştırması
- 1979 Stanford özümseme yanlılığı çalışmasının kısa özeti 9 Mart 2017 tarihinde Wayback Machine sitesinde arşivlendi. – Keith Rollag, Babson College