31 Aralık 2024 Salı

Understanding Positional Encodings: Absolute, Relative, and Rotary

Positional encodings are a crucial component of transformer models, enabling them to understand the order of tokens in a sequence. Since transformers lack built-in mechanisms to process sequential data, positional encodings inject information about the position of each token, allowing the model to capture the structure of the input. In this blog post, we’ll explore three popular types of positional encodings: **Absolute Positional Encoding**, **Relative Positional Encoding**, and **Rotary Positional Encoding**. We’ll also discuss their differences, sample outputs, and why they matter.

12 Aralık 2024 Perşembe

Zaman serisi tahmini ve açıklanabilirlik

Yıllar önce (7 yıl önce!) zaman serisi tahmini hakkında ARIMA ve LSTM ile Zaman Serisi Tahmini başlıklı iki makale yazmıştım, aşağıda bağlantıları paylaşıyorum.

Aradan geçen sürede zaman serileri konusunda literatüre birçok yöntem eklendi. Günümüzde sürekli olarak zamana bağlı veri üretildiği ve  verinin en önemli şey olduğu düşünüldüğünde, bu konunun ne kadar popüler olduğunu anlatmaya gerek olmadığını düşünüyorum. Bu yazıda, zaman serisi analizinde güncel yaklaşımları, özellikle de Açıklanabilir Yapay Zeka (Explainable AI *XAI*) çerçevesinde ele almayı amaçlıyorum.