Simulation-Based Inference, yani SBI, çok modern bir istatistik problemini çözer: bilimsel bir modelden veri simüle edebiliyoruz ama likelihood'ı kolayca yazamıyor veya hesaplayamıyorsak ne yaparız? Bu durum özellikle cognitive science, neuroscience, ecology, physics ve epidemiology gibi alanlarda sık görülür; çünkü model bazen basit bir formül değil, zaman içinde ilerleyen dinamik bir süreçtir.

Classical Bayesian inference genelde likelihood ister: belirli parametre değerleri altında observed data'nın ne kadar olası olduğunu söyleyen bir fonksiyon. Ama gerçekçi modellerde bu kolay değildir. Model stochastic simulation, time-dependent decision, hidden state, individual-level variation veya birbirine bağlı mekanizmalar içerebilir. Model veri üretebilir, ama o verinin probability density'sini açıkça yazmak imkânsız ya da çok pahalı olabilir.

SBI bu zayıflığı bir workflow'a çevirir. Likelihood'ı doğrudan istemek yerine prior'dan parametre örnekleriz, modelden veri simüle ederiz ve neural inference system'i ters mapping'i öğrenmesi için train ederiz: observed data'dan plausible parameter'lara geri dönmek. Yani simulator örnek üretebiliyorsa, SBI parametre değerlerinin bu örneklerde bıraktığı izleri öğrenebilir.

Bu noktada BayesFlow ve amortized Bayesian inference ekosistemi ilginç hale geliyor. Konu sadece 'neural network kullanalım' değil; neural inference'ın likelihood'ı unavailable veya çok pahalı olan modellerde ne zaman ciddi bir scientific tool olduğunu anlamak.

BayesFlow burada kullanışlı çünkü amortized Bayesian inference için pratik bir yapı veriyor: simulator, prior, adapter, summary network, inference network, posterior sampling ve diagnostics. Bu yapı önemli. Onsuz SBI kolayca dağınık code fragment'larına dönüşebilir. Bu yapıyla workflow incelenebilir hale gelir: ne simüle ediliyor, ne summarize ediliyor, ne infer ediliyor ve model known parameter'ları ne kadar iyi recover ediyor?

Benim örnek çalışmam bu fikri reading sırasındaki eye movement'ları modelleyen simplified SWIFT modeline uyguluyor. Reading behavior dinamiktir: fixation duration, saccade, skipped word, refixation ve landing error zaman içinde birbiriyle etkileşir. Full SWIFT modeli computationally intensive ve likelihood'ı tractable değil; bu yüzden SBI için doğal bir aday.

BayesFlow projemde simplified SWIFT-style bir simulator kurdum ve simulated fixation sequence'lerinden nu, r, mu_T ve eta gibi parametreleri infer etmeyi denedim. Workflow prior sampling, sequence simulation, adapter transformation, neural summary variable'lar, FlowMatching-based inference, posterior sampling ve loss trajectory, parameter recovery, z-score contraction gibi diagnostic plot'ları içeriyor.

Diagnostic'ler önemli çünkü SBI magic gibi davranılmaması gereken bir yöntem. SWIFT örneğinde nu, r ve mu_T gibi parametrelerde recovery güçlüydü; eta ise simplified setup'ta daha zor identify edildi. Bu aslında faydalı bir sonuç: simulator'un hangi kısımlarının informative olduğunu, hangi kısımlar için daha zengin veri, daha iyi summary veya daha refine model gerektiğini gösteriyor.

Yani SBI sadece teknik bir likelihood problemini çözmez. Complex generative modelleri bilimsel olarak kullanılabilir tutmanın bir yolunu verir. SWIFT projesi de bu fikrin somut hali: likelihood'ı tractable olmayan bir reading modelini inspectable Bayesian inference pipeline'ına dönüştürmek.