Google’ın karşılaştığı en büyük zorluk, verinin kendisiydi. Yapay zekanın, sensör sinyalleri ile günlük aktiviteler arasındaki ilişkiyi öğrenebilmesi için milyonlarca saatlik verinin yazılı açıklamalarla etiketlenmesi gerekiyordu. Ancak bu büyüklükte bir manuel etiketleme süreci imkânsızdı.
Bu nedenle ekip, sensör verilerini otomatik olarak açıklayan bir sistem geliştirdi. Sonuç: 103 binden fazla kişiden toplanan ve toplam 59.7 milyon saatlik veriyi içeren dünyanın en büyük sensör-dil veri seti oluşturuldu.
Hem dedektif hem hikâye anlatıcısı
SensorLM iki ana yöntemle eğitildi:
- Kontrastif öğrenme (contrastive learning) ile model, birbirine benzeyen ama farklı aktiviteleri ayırt etmeyi öğrendi. Örneğin hafif bir yüzme ile ağırlık çalışmasını yalnızca sensör verilerine bakarak ayırabiliyor.
- Üretici ön eğitim (generative pre-training) ile ise model, insan diliyle açıklama yazmayı öğrendi. Bu sayede yalnızca sensör verilerinden anlamlı hikâyeler oluşturabiliyor.
Sıfırdan tahminle bile başarı sağlıyor
Model, özel bir hazırlık yapılmadan verilen 20 farklı aktiviteyi sınıflandırma konusunda test edildiğinde oldukça yüksek doğruluk oranları yakaladı. Aynı testi diğer gelişmiş dil modelleri (örneğin Gemini ve Gemma) neredeyse rastgele tahmin yaparak geçemedi.
SensorLM, sadece sınıflandırmakla kalmıyor, aynı zamanda olayları dakika dakika özetleyebiliyor. Örneğin model, bir açık hava bisiklet turunu, sonrasında yapılan yürüyüşü ve gece uykusunu doğru zamanlamalarla tespit edebildi.
Kişisel sağlık koçlarına bir adım daha yakınız
Araştırmalar, modelin boyutu büyüdükçe ve daha fazla veriyle beslendikçe başarımının arttığını gösteriyor. Bu da dijital sağlık koçları, klinik izleme sistemleri ve sohbet yoluyla öneriler sunan kişiselleştirilmiş sağlık uygulamalarının önünü açıyor.
Google SensorLM ile sadece basit metriklere bakmak dönemi geride kalıyor. Bu tür yenilikler sayesinde giyilebilir teknolojiler vücudumuzun “dilini” anlamaya bir adım daha yaklaşıyor.