Positional encodings are a crucial component of transformer models, enabling them to understand the order of tokens in a sequence. Since transformers lack built-in mechanisms to process sequential data, positional encodings inject information about the position of each token, allowing the model to capture the structure of the input. In this blog post, we’ll explore three popular types of positional encodings: **Absolute Positional Encoding**, **Relative Positional Encoding**, and **Rotary Positional Encoding**. We’ll also discuss their differences, sample outputs, and why they matter.
31 Aralık 2024 Salı
12 Aralık 2024 Perşembe
Zaman serisi tahmini ve açıklanabilirlik
Yıllar önce (7 yıl önce!) zaman serisi tahmini hakkında ARIMA ve LSTM ile Zaman Serisi Tahmini başlıklı iki makale yazmıştım, aşağıda bağlantıları paylaşıyorum.
Aradan geçen sürede zaman serileri konusunda literatüre birçok yöntem eklendi. Günümüzde sürekli olarak zamana bağlı veri üretildiği ve verinin en önemli şey olduğu düşünüldüğünde, bu konunun ne kadar popüler olduğunu anlatmaya gerek olmadığını düşünüyorum. Bu yazıda, zaman serisi analizinde güncel yaklaşımları, özellikle de Açıklanabilir Yapay Zeka (Explainable AI *XAI*) çerçevesinde ele almayı amaçlıyorum.
20 Şubat 2024 Salı
İsveç oturum izni alma ve tasinma surecleri
İsveç`te postdoc icin kabul aldiktan sonra tabi ki ilk is olarak oturum izni konusu gundeme geldi. Ben Universitede calisacagim icin basvuru icin universiteden aldigim kontrati kullandim, baska herhangi bir maas bordrosu, banka hesabi vs gibi seylere ihtiyac olmadi.
Kaydol:
Kayıtlar (Atom)