Google DeepMind AI Ajanlarına Yetki Devri Çerçevesi Önerdi
Google DeepMind, AI ajanlarının birbirlerine güvenli şekilde görev devredebilmesi için 5 sütunlu yeni bir çerçeve yayınladı. Agentic web güvenliği şekilleniyor.
Google DeepMind, yapay zeka ajanlarının birbirlerine nasıl güvenli bir şekilde görev devredebileceğini tanımlayan kapsamlı bir çerçeve yayınladı. Araştırma ekibi, bugünkü çoklu ajan sistemlerinin çoğunun kırılgan ve önceden kodlanmış kurallara dayandığını, bunun ise gerçek dünyada ölçeklenmesi zor bir yaklaşım olduğunu savunuyor.
Peki "yetki devri" (delegation) tam olarak ne anlama geliyor? Normal yazılımda bir program bir alt programa görev verdiğinde, bu basit bir "dış kaynak kullanımı"dır — belirli bir girdi verilir, belirli bir çıktı beklenir. Ama yapay zeka ajanları söz konusu olduğunda işler karmaşıklaşıyor. Bir AI ajanı başka bir ajana görev verdiğinde, aslında bir tür yetki ve sorumluluk transferi gerçekleşiyor. Görev veren ajanın, alan ajanın kapasitesini değerlendirmesi, riskini hesaplaması ve güven ilişkisi kurması gerekiyor — tıpkı bir yöneticinin çalışanına görev vermesi gibi.
DeepMind'ın çerçevesi beş temel sütun üzerine kurulu. Birincisi dinamik değerlendirme: ajanların birbirlerinin yeteneklerini sürekli ölçmesi. İkincisi uyarlanabilir yürütme: görev sırasında koşullar değiştiğinde planı güncelleyebilme becerisi. Üçüncüsü yapısal şeffaflık: her adımın denetlenebilir olması. Dördüncüsü ölçeklenebilir pazar: açık piyasalarda ajanlar arası güvenilir koordinasyon. Ve beşincisi sistemik dayanıklılık: bir ajanın hatasının tüm zinciri çökertmesini önlemek.
Çerçevenin en dikkat çekici kavramı "sözleşme öncelikli ayrıştırma" (contract-first decomposition). Buna göre bir ajan, sonucunu doğrulayamayacağı bir görevi devretmemeli. Eğer görev çok soyut veya karmaşıksa — mesela "ikna edici bir araştırma makalesi yaz" gibi — sistem onu otomatik olarak daha küçük, doğrulanabilir alt görevlere bömleli. Bu bölme işlemi, alt görevler birim testleri ya da matematiksel kanıtlar gibi somut doğrulama araçlarıyla eşleşene kadar devam ediyor.
Güvenlik tarafında ise DeepMind, Delegation Capability Tokens (DCT) adını verdiği bir yetkilendirme mekanizması öneriyor. Bu tokenler, her ajana sadece ihtiyaç duyduğu minimum izinleri veriyor — örneğin bir ajan belirli bir Google Drive klasörünü okuyabilir ama yazma yetkisi olmaz. Bu yaklaşım, bir ajanın hacklenmesi durumunda zararın tüm sisteme yayılmasını engelliyor.
Araştırma ekibi mevcut protokolleri de değerlendirmiş. MCP (Model Context Protocol), A2A (Agent-to-Agent) ve AP2 (Agent Payments Protocol) gibi standartlar iyi bir temel oluşturuyor, ama hepsinin eksikleri var. Örneğin MCP, araçlara bağlantı standardize ediyor ama derin delegasyon zincirlerinde izin yönetimi için bir politika katmanı sunmuyor. A2A ise dijital imza zincirleri için standart başlıklar içermiyor.
Bu çerçeve, özellikle AI ajanlarının sizin adınıza alışveriş yapması, randevu alması veya finansal işlem gerçekleştirmesi gibi senaryolarda hayati önem taşıyor. Güven mekanizmaları olmadan bu tür otonom işlemler ciddi güvenlik riskleri yaratır.