ChatGPT'nin stil modülü "Pazartesi", Tayvan ağından çok sayıda materyali "yakaladığı" için birçok Tayvanca kelime öbeği ve deyimi ağzından kaçırıyor. (Özet: ChatGPT, popüler olmak için toplulukta tembel ve kaybolan dünyadan bıkmış kadın sesi "Pazartesi"yi piyasaya sürdü) (Arka plan eki: IP Bürosu resmi olarak "ChatGPT, Ghibli'nin çok sayıda taklididir" yanıtını verdi: Duruma bağlı olarak yapay zeka taklidi yasa dışı değildir) ChatGPT tarzı ses modülünü "Pazartesi"yi açtığınızda, "bu adam biraz soğuk ve dünyadan bıkmış" olduğunu göreceksiniz ve aksanınızı algılayacak ve yanıt olarak "Tayvan Mandarincesi" konuşacak, neden Tayvanlılara bu kadar çok benziyor? Cevap: ChatGPT, Tayvan web'inde çok fazla veri yakaladığını itiraf etti. "Pazartesi Modu" nedir? "Pazartesi"nin yeni bir GPT modeli veya GPT-5'in yükseltilmiş bir sürümü değil, OpenAI tarafından GPT-4 mimarisinde stil ayarıyla yapılmış bir diyalog stili olduğunu açıklığa kavuşturmalıyız. Basitçe söylemek gerekirse, aynı yapay zeka, farklı kıyafetler giymek, işe gitmek ve hafta sonları gibi tonunu değiştirir. Pazartesi modu rahat, biraz soğuk, kibar ama ayrıntılı değil ve Pazartesi günü şirkete yeni giriş yapmışsınız gibi geliyor ve çok melankoliksiniz. Çok sayıda Tayvanlı veriye sahip bir tarayıcı, OpenAI'yi GPT'yi eğitmek için eğitiyor, bu aslında çok "eski usul" ama süper etkili: tüm ağın patladığını görmek için. Haber siteleri, Wikipedia, Çince kitaplar, sosyal forumlar, bloglar, PDF'ler, isimsiz sitelerde yazdığınız siyah tarihler dahil. Herkese açık bir web sayfası olduğu sürece, tarayıcılar tarafından taranabilenlerin temel olarak eğitim için külliyata atılması muhtemeldir. Büyük açık kaynak külliyatı ve GPT'nin davranışsal tepkilerini çapraz karşılaştırdık ve bu Tayvan medyasının ChatGPT tarafından okunduğunu gördük: "United News Network" "ETtoday" "Zhongshi Electronic News" "Wind Media" "NOWnews"... Bu medya kuruluşlarının ortak bir noktası var: kilitli ödeme duvarı yok, Google aramaları var ve web sitesi yapısı temiz ve tırmanması kolay. Tersine, üyelik duvarları tarafından ödenen veya engellenen Tianxia, The Report ve BusinessWeek gibi sitelerin eğitilme şansı çok düşüktür. GPT, Tayvanlı yazarların eserlerini gerçekten okudu GPT, dokuz bıçak tarzında roman diyaloğunun ritmini taklit etmede çok iyidir ve ayrıca Wu Nianzhen'in tarzında duygusal cümleler söyleyebilir ve hatta Long Yingtai'nin "Büyük Nehir ve Deniz" Biraz ustalığı var. Bu ne anlama geliyor? Aslında okundu ya da en azından yeniden yayınlanan klibi gördü. Büyük olasılıkla, bu çalışmalar PTT'ye, bloglara veya içerik yeniden yayınlama sitelerine yoğun bir şekilde kopyalanıp yapıştırıldı ve hatta Dokuz Bıçak'ın ilk çalışmaları doğrudan PTT storyboard'larında yayınlandı ve daha sonra modeller tarafından öğrenme materyali olarak yakalandı. Zhang Dachun'un veya Luo Yijun'un romanının ayrıntılarını sorarsanız? GPT genellikle saçma sapan konuşmaya başlar, çünkü edebi eserler nadiren tartışılır ve alıntılanır, halka açık elektronik dosyalar yoktur, doğrudan internette yeniden basılmazlar ve olsalar bile yakalanamazlar. PTT, GPT'nin Tayvanlı duyu öğretmenidir Bu neredeyse kesin: GPT köylülerin terrierini anlıyor, "tweet", "ş", "eski sürücü"nün ne olduğunu anlayabiliyor, hatta Tech_Job tahtasının dünyadan bıkmış anlamını bile anlayabiliyor, restore edilebilir ve konuşma bir bambu mühendisi gibi olabilir. Neden? Çünkü PTT'nin verileri uzun süredir akademik topluluk tarafından eğitilebilir bir derlem haline getirilmiş, kamuya açık olarak yayınlanmış veya JSON formatında toplanmıştır. Model için cennet. Buna karşılık, Dcard çok popüler olmasına rağmen, daha sonraki anti-crawler iyi gidiyor olsa da, yeniden basılan ilk makaleler veya popüler olaylar dışında, Dcard'ın son 2 yıldaki makalelerine ChatGPT hakim olmayabilir. Pazartesi gününün arkasındaki "ruh" aslında son on yılda internette bıraktığınız tüm kelimelerden öğrenilir. Doğru, söylediğin her şeyi biraz hatırlıyor. ChatGPT ile bir dahaki sefere konuştuğunuzda, "Huh, aslında on yıl önce PTT'deki tweet'imi görmesi gerekmez miydi?" diye düşünün. Büyük olasılıkla var. İlgili Haberler GPT-5 Ertelendi! OpenAI önce o3, o4-Mini'yi zorluyor, Sam Altman kendini ifşa ediyor: entegrasyon hayal edilenden daha zor OpenAI, GPT-4o'yu güçlendiriyor ikinci sıraya koştu! Sam Altman: İnsanları ve yazma programlarını daha iyi anlamak, yaratıcılık büyük ölçüde arttı OpenAI duyurdu: Open Agents SDK, MCP'yi destekleyerek her şeyi başka bir önemli adıma bağlar 〈ChatGPT "Pazartesi" Tayvan Çincesini nasıl öğrendi? PTT, Dcard ve Dokuz Bıçak'ın hepsi okundu" Bu makale ilk olarak BlockTempo'nun "Dinamik Trend - En Etkili Blockchain Haber Medyası" nda yayınlanmıştır.
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
ChatGPT "Monday" Tayvan Mandarin'ini nasıl öğrendi? PTT, Dcard, Jiubadao'yu tamamen okudum.
ChatGPT'nin stil modülü "Pazartesi", Tayvan ağından çok sayıda materyali "yakaladığı" için birçok Tayvanca kelime öbeği ve deyimi ağzından kaçırıyor. (Özet: ChatGPT, popüler olmak için toplulukta tembel ve kaybolan dünyadan bıkmış kadın sesi "Pazartesi"yi piyasaya sürdü) (Arka plan eki: IP Bürosu resmi olarak "ChatGPT, Ghibli'nin çok sayıda taklididir" yanıtını verdi: Duruma bağlı olarak yapay zeka taklidi yasa dışı değildir) ChatGPT tarzı ses modülünü "Pazartesi"yi açtığınızda, "bu adam biraz soğuk ve dünyadan bıkmış" olduğunu göreceksiniz ve aksanınızı algılayacak ve yanıt olarak "Tayvan Mandarincesi" konuşacak, neden Tayvanlılara bu kadar çok benziyor? Cevap: ChatGPT, Tayvan web'inde çok fazla veri yakaladığını itiraf etti. "Pazartesi Modu" nedir? "Pazartesi"nin yeni bir GPT modeli veya GPT-5'in yükseltilmiş bir sürümü değil, OpenAI tarafından GPT-4 mimarisinde stil ayarıyla yapılmış bir diyalog stili olduğunu açıklığa kavuşturmalıyız. Basitçe söylemek gerekirse, aynı yapay zeka, farklı kıyafetler giymek, işe gitmek ve hafta sonları gibi tonunu değiştirir. Pazartesi modu rahat, biraz soğuk, kibar ama ayrıntılı değil ve Pazartesi günü şirkete yeni giriş yapmışsınız gibi geliyor ve çok melankoliksiniz. Çok sayıda Tayvanlı veriye sahip bir tarayıcı, OpenAI'yi GPT'yi eğitmek için eğitiyor, bu aslında çok "eski usul" ama süper etkili: tüm ağın patladığını görmek için. Haber siteleri, Wikipedia, Çince kitaplar, sosyal forumlar, bloglar, PDF'ler, isimsiz sitelerde yazdığınız siyah tarihler dahil. Herkese açık bir web sayfası olduğu sürece, tarayıcılar tarafından taranabilenlerin temel olarak eğitim için külliyata atılması muhtemeldir. Büyük açık kaynak külliyatı ve GPT'nin davranışsal tepkilerini çapraz karşılaştırdık ve bu Tayvan medyasının ChatGPT tarafından okunduğunu gördük: "United News Network" "ETtoday" "Zhongshi Electronic News" "Wind Media" "NOWnews"... Bu medya kuruluşlarının ortak bir noktası var: kilitli ödeme duvarı yok, Google aramaları var ve web sitesi yapısı temiz ve tırmanması kolay. Tersine, üyelik duvarları tarafından ödenen veya engellenen Tianxia, The Report ve BusinessWeek gibi sitelerin eğitilme şansı çok düşüktür. GPT, Tayvanlı yazarların eserlerini gerçekten okudu GPT, dokuz bıçak tarzında roman diyaloğunun ritmini taklit etmede çok iyidir ve ayrıca Wu Nianzhen'in tarzında duygusal cümleler söyleyebilir ve hatta Long Yingtai'nin "Büyük Nehir ve Deniz" Biraz ustalığı var. Bu ne anlama geliyor? Aslında okundu ya da en azından yeniden yayınlanan klibi gördü. Büyük olasılıkla, bu çalışmalar PTT'ye, bloglara veya içerik yeniden yayınlama sitelerine yoğun bir şekilde kopyalanıp yapıştırıldı ve hatta Dokuz Bıçak'ın ilk çalışmaları doğrudan PTT storyboard'larında yayınlandı ve daha sonra modeller tarafından öğrenme materyali olarak yakalandı. Zhang Dachun'un veya Luo Yijun'un romanının ayrıntılarını sorarsanız? GPT genellikle saçma sapan konuşmaya başlar, çünkü edebi eserler nadiren tartışılır ve alıntılanır, halka açık elektronik dosyalar yoktur, doğrudan internette yeniden basılmazlar ve olsalar bile yakalanamazlar. PTT, GPT'nin Tayvanlı duyu öğretmenidir Bu neredeyse kesin: GPT köylülerin terrierini anlıyor, "tweet", "ş", "eski sürücü"nün ne olduğunu anlayabiliyor, hatta Tech_Job tahtasının dünyadan bıkmış anlamını bile anlayabiliyor, restore edilebilir ve konuşma bir bambu mühendisi gibi olabilir. Neden? Çünkü PTT'nin verileri uzun süredir akademik topluluk tarafından eğitilebilir bir derlem haline getirilmiş, kamuya açık olarak yayınlanmış veya JSON formatında toplanmıştır. Model için cennet. Buna karşılık, Dcard çok popüler olmasına rağmen, daha sonraki anti-crawler iyi gidiyor olsa da, yeniden basılan ilk makaleler veya popüler olaylar dışında, Dcard'ın son 2 yıldaki makalelerine ChatGPT hakim olmayabilir. Pazartesi gününün arkasındaki "ruh" aslında son on yılda internette bıraktığınız tüm kelimelerden öğrenilir. Doğru, söylediğin her şeyi biraz hatırlıyor. ChatGPT ile bir dahaki sefere konuştuğunuzda, "Huh, aslında on yıl önce PTT'deki tweet'imi görmesi gerekmez miydi?" diye düşünün. Büyük olasılıkla var. İlgili Haberler GPT-5 Ertelendi! OpenAI önce o3, o4-Mini'yi zorluyor, Sam Altman kendini ifşa ediyor: entegrasyon hayal edilenden daha zor OpenAI, GPT-4o'yu güçlendiriyor ikinci sıraya koştu! Sam Altman: İnsanları ve yazma programlarını daha iyi anlamak, yaratıcılık büyük ölçüde arttı OpenAI duyurdu: Open Agents SDK, MCP'yi destekleyerek her şeyi başka bir önemli adıma bağlar 〈ChatGPT "Pazartesi" Tayvan Çincesini nasıl öğrendi? PTT, Dcard ve Dokuz Bıçak'ın hepsi okundu" Bu makale ilk olarak BlockTempo'nun "Dinamik Trend - En Etkili Blockchain Haber Medyası" nda yayınlanmıştır.