Bir yapay zeka modeli olan BERT (Bidirectional Encoder Representations from Transformers), 2018 yılında Google tarafından geliştirilmiştir. BERT, doğal dil işleme (NLP) için kullanılan bir derin öğrenme modelidir ve dil modellerini eğitmek için kullanılan öncül teknolojilerden biridir. BERT modeli, giriş metninin iki yönde de (ileri ve geri) kodlanmasına izin verir ve böylece metindeki bağlamsal ilişkileri anlayabildiği için doğal dil işleme görevlerinde daha iyi sonuçlar verir. BERT, birçok NLP görevinde (ör. duygu analizi, dil çevirisi, soru cevaplama) state-of-the-art sonuçlar göstermiştir.
Ne Demek sitesindeki bilgiler kullanıcılar vasıtasıyla veya otomatik oluşturulmuştur. Buradaki bilgilerin doğru olduğu garanti edilmez. Düzeltilmesi gereken bilgi olduğunu düşünüyorsanız bizimle iletişime geçiniz. Her türlü görüş, destek ve önerileriniz için iletisim@nedemek.page