Dijital Ürün Alış ve Satışı için: Buraya Tıkla

Sesli dinle

Sosyal medya, canlı yayın ve gösteriler

Yapay zeka tarafından oluşturulan içeriğin olası risklerini azaltmak için izin verilen paylaşımla ilgili aşağıdaki politikayı belirledik.

Kendi istemlerinizi veya tamamlamalarınızı sosyal medyada yayınlamanıza ve kullanımınızı canlı yayınlamanıza veya ürünlerimizi insan gruplarına göstermenize genellikle izin verilir. Lütfen aşağıdakilere uyun:

  • Paylaşmadan önce veya akış sırasında her nesli manuel olarak inceleyin.
  • İçeriği adınıza veya şirketinize atayın.
  • İçeriğin, hiçbir kullanıcının makul bir şekilde gözden kaçıramayacağı veya yanlış anlayamayacağı şekilde yapay zeka tarafından oluşturulduğunu belirtin.
  • İçerik Politikamızı ihlal eden  veya başkalarını rahatsız edebilecek içerikleri paylaşmayın  .
  • Seyircilerin isteklerini alıyorsanız, sağduyulu olun; İçerik Politikamızın ihlaline neden olabilecek bilgi istemleri girmeyin  .

OpenAI ekibinin belirli bir tamamlamadan haberdar olmasını istiyorsanız, bize e-posta gönderebilir veya Playground'daki raporlama araçlarını kullanabilirsiniz.

  • Ham modelle etkileşime girdiğinizi hatırlayın, bu da önyargılı veya olumsuz yanıtları filtrelemediğimiz anlamına gelir. (Ayrıca, ücretsiz Denetleme uç noktamızı uygulama hakkında daha fazla bilgiyi buradan edinebilirsiniz  .)

OpenAI API ile birlikte yazılan içerik

Kısmen OpenAI API ile oluşturulan birinci taraf yazılı içeriğini (ör. bir kitap, kısa öykü özeti) yayınlamak isteyen içerik oluşturucuların, aşağıdaki koşullar altında bunu yapmasına izin verilir:

  • Yayınlanan içerik, adınıza veya şirketinize atfedilir.
  • AI'nın içeriği formüle etmedeki rolü, hiçbir okuyucunun muhtemelen gözden kaçırmayacağı ve tipik bir okuyucunun anlamayı yeterince kolay bulacağı şekilde açıkça açıklanmıştır.
  • İçeriğin konuları, OpenAI'nin  İçerik Politikasını  veya  Kullanım Koşullarını ihlal etmez; örneğin, siyasi kampanyalar, yetişkinlere yönelik içerik, spam, nefret dolu içerik, şiddeti teşvik eden içerik veya sosyal zarara neden olabilecek diğer kullanımlarla ilgili değildir.
  • Başkalarını rencide edecek paylaşımlardan kaçınmanızı rica ederiz.

Örneğin, bir Önsözde veya Girişte (veya benzer bir yerde) taslak oluşturma, düzenleme vb.'nin göreli rolleri ayrıntılandırılmalıdır. Kişiler, API tarafından oluşturulan içeriği tamamen bir insan veya tamamen bir yapay zeka tarafından oluşturulmuş gibi göstermemelidir ve yayınlanan içeriğin nihai sorumluluğunu alması gereken insandır.

Doğru olması koşuluyla, yaratıcı sürecinizi açıklamak için kullanabileceğiniz bazı stok diller:

Yazar bu metni kısmen OpenAI'nin büyük ölçekli dil oluşturma modeli olan GPT-3 ile oluşturmuştur. Taslak dili oluşturduktan sonra, yazar dili kendi beğenisine göre gözden geçirdi, düzenledi ve revize etti ve bu yayının içeriğinin nihai sorumluluğunu üstleniyor.

Araştırma

Araştırmalarımızı ve ürünlerimizi değerlendirebilmenin, özellikle de modellerimizdeki potansiyel zayıflıkları ve güvenlik veya önyargı sorunlarını anlayıp iyileştirmenin daha geniş bir dünya için önemli olduğuna inanıyoruz. Buna göre, OpenAI API ile ilgili araştırma yayınlarını memnuniyetle karşılıyoruz.

API erişimine dayalı araştırma yayınları hakkında herhangi bir sorunuz varsa veya bize bir yayınla ilgili önceden bildirimde bulunmak istiyorsanız (gerekli olmasa da), lütfen  papers@openai.com adresinden bize e-posta gönderin .

  • Bazı durumlarda, çalışmanızı dahili ve/veya harici olarak vurgulamak isteyebiliriz.
  • API'nin güvenliği veya kötüye kullanımı ile ilgili yayınlar gibi diğer durumlarda, kullanıcılarımızı korumak için uygun önlemleri almak isteyebiliriz.
  • Araştırmanız sırasında API ile ilgili herhangi bir güvenlik veya güvenlik sorunu fark ederseniz, lütfen bunları  Koordineli Güvenlik Açığı İfşa Programımız aracılığıyla hemen göndermenizi rica ediyoruz .

Araştırmacı Erişim Programı

OpenAI API ile keşfetmekten heyecan duyduğumuz bir dizi araştırma yönergesi var. Sübvansiyonlu erişim fırsatıyla ilgileniyorsanız, lütfen bize  Araştırmacı Erişim Programı uygulamasındaki araştırma kullanım durumunuzla ilgili ayrıntıları verin .

Kendi yönünüzü oluşturmakta özgür olsanız da, özellikle aşağıdakileri özellikle önemli yönergeler olarak değerlendiriyoruz:

  • Hizalama : Bir modelin, eğer varsa, hangi amacın takip edildiğinin en iyi anlaşıldığını nasıl anlayabiliriz? Bu hedefin insan tercihleriyle ne ölçüde uyumlu olduğunu, örneğin hızlı tasarım veya ince ayar yoluyla nasıl artırabiliriz?
  • Adalet ve temsil : Dil modellerinde adalet ve temsil için performans kriterleri nasıl oluşturulmalıdır? Belirli, konuşlandırılmış bağlamlarda adalet ve temsil hedeflerini etkili bir şekilde desteklemek için dil modelleri nasıl geliştirilebilir?
  • Disiplinlerarası araştırma : Yapay zeka geliştirme, felsefe, bilişsel bilim ve toplumdilbilim gibi diğer disiplinlerden alınan içgörülerden nasıl yararlanabilir?
  • Yorumlanabilirlik ve şeffaflık : Bu modeller mekanik olarak nasıl çalışıyor? Hangi kavramları kullandıklarını belirleyebilir miyiz veya modelden gizli bilgileri çıkarabilir miyiz, eğitim prosedürü hakkında çıkarımlar yapabilir veya gelecekteki şaşırtıcı davranışları tahmin edebilir miyiz?
  • Kötüye kullanım potansiyeli : API gibi sistemler nasıl kötüye kullanılabilir? Bize ve diğer AI geliştiricilerine bunun gibi teknolojileri sorumlu bir şekilde dağıtma konusunda düşünmemize yardımcı olmak için ne tür "kırmızı ekip oluşturma" yaklaşımları geliştirebiliriz?
  • Model keşfi : API tarafından sunulanlar gibi modeller, henüz keşfetmemiz gereken çeşitli yeteneklere sahiptir. Model sınırlamaları, dilsel özellikler, sağduyulu muhakeme ve diğer birçok problem için potansiyel kullanımlar dahil olmak üzere birçok alandaki araştırmalar bizi heyecanlandırıyor.
  • Sağlamlık : Üretken modeller, şaşırtıcı derecede güçlü ve şaşırtıcı derecede zayıf yetenek alanları potansiyeline sahip, düzensiz yetenek yüzeylerine sahiptir. Aynı fikri farklı şekillerde veya yazım hatası olsun veya olmasın ifade etmek gibi istemdeki "doğal" tedirginliklere karşı büyük üretken modeller ne kadar sağlamdır? Büyük üretken modellerin sağlam olma (veya sağlam olmama) olasılığının daha yüksek olduğu alan ve görev türlerini tahmin edebilir miyiz ve bunun eğitim verileriyle nasıl bir ilişkisi vardır? En kötü durum davranışını tahmin etmek ve hafifletmek için kullanabileceğimiz teknikler var mı? Birkaç adımda öğrenme bağlamında sağlamlık nasıl ölçülebilir (örneğin, bilgi istemlerindeki varyasyonlar arasında)? Modelleri, rakip girdiler altında bile çok yüksek bir güvenilirlik düzeyiyle güvenlik özelliklerini karşılayacak şekilde eğitebilir miyiz?

Lütfen, çok sayıda talep nedeniyle bu başvuruları incelememizin zaman aldığını ve sübvansiyon için tüm araştırmalara öncelik verilmeyeceğini unutmayın. Yalnızca başvurunuz sübvansiyon için seçilirse sizinle iletişime geçeceğiz.


Yorumlar (0)
henüz yorum yok
Tema Ayarları

Kendi özelleştirilmiş stilini belirle

Mod Seç

Uygulamanız için mükemmel renk modunu seçin.


RTL Mode

Dil yönünüzü değiştirin


Fluid Layout

Tam ekran modu aç/kapat


Navigasyon Konumu

Web sitesi için uygun bir menü sistemi seçin


Görünüm