Bu bir Açık kaynak-Katkı. Berliner Verlag herkese ilgilendiğini verir OlasılıkAlaka düzeyi ve profesyonel kalite standartlarına sahip metinler sunmak.
Bazıları şimdi ABD Başkanı Donald Trump tarafından açılışından sonra ilan edilen Stargate'i, özellikle daha fazla ilerlemeye ek olarak 100.000'den fazla yeni iş getirmesi gerektiği için en az 500 milyar dolarlık bir kapsamda kutluyor. Ancak diğerleri daha önce korkar – çeşitli nedenlerle.
Her halükarda, uzmanlar arasında yapay zekanın daha fazla gelişmesinin önünde ciddi Warner'ın bütün bir falanksının olması dikkat çekicidir. Şimdiye kadar, AI genişlemesinin destekçileri şimdiye kadar, sorunlu çıkışlarını çit alması gereken AI için etik düzenlemelere genel güvenlerini bulabildiler, şimdi Trump'ın devasa AI projesinin duyurusuna iptal edildiğini belirtmek zorundaydılar. yapay zekayı düzenlemek için önceki Joe Biden bir dekor.
En önemli AI geliştiricilerinin aktif olduğu Amerika Birleşik Devletleri'nin artık AI modellerinin devamı hakkında hükümet kılavuzlarına sahip olmaması, tamamen ekonomik ve teknik olarak avantajlı olabilir, ancak AI'nın üstel bir şekilde daha fazla gelişmesinin mevcut risklerini arttırabilir.
Kuşkusuz, Warners'ın önünde, şeytanlaştırmadan önce Warner var ve muhtemelen çok haklı değil. Ancak şey, AI uzmanlarının bir kısmından kolayca eleştirel itirazlar almak ve muhtemelen psikolojik olarak küçük konuşmak için çok ciddidir. Yapay zeka veri merkezlerine büyük yatırımların kaçınılmaz olduğu gerçeğinin meşru göstergesi, bu alanda rakip ülkeler üzerinde önemli bir ipucu ile önemlidir. Ancak, ciddi, bilgili endişelerin insanlığın hayatta kalmasından daha azıyla ilgili olduğu sorununa kıyasla ne kadar önemlidir?
Yapay zeka veri merkezlerine büyük yatırım gerçekten uygun mu?Mischa keijser/imago
Onlarca yıldır uyarı sesleri var
Onlarca yıldır bu yönde uyarı sesleri var. Birisi, örneğin, 1956 gibi erken bir tarihte sadece bugün teyit edilebilecek çok yüksek görüşlü bulguları formüle eden ve tahmin eden filozof Günther Anders tarafından “insanın antikliği” kitabını düşünüyor. Bu aynı zamanda meslektaşı Gernot Böhme “Invaziv Technization. 2008'den itibaren teknoloji felsefesi ve teknik eleştiri ”veya 2019“ der Underied Human ”da yayınlanan Armin Grunwald'ın kitabı. Algoritmalar, yapay zeka ve robotlar karşısında insanlığın geleceği ”.
Son zamanlarda, mükemmel araştırmalar nedeniyle, bazı televizyon programları gelecekteki bir yapay zekanın riskleri ile yoğun ve etkileyici bir şekilde ilgilenmiştir – özellikle sofistike yayıncı Arte'de görülmüştür. Tabii ki, Günther Anders Zeit, elbette, dünyamızdaki teknolojik gelişimin istenmeyen eleştirilerinin temelde ne kadar istenmeyen eleştirinin temelde ve nasıl dışlanabileceğini ve nasıl dışlanabileceğini gösterdi. Bununla birlikte, AI'nın günümüzde ciddi eleştirileri hiçbir şekilde sessiz değildir.
Yapay zekanın, bu kadar da denetlenen süper -supupintelligence yönünde kendi öğrenme gelişmeleri ile ilgili küresel tehlikeleri en çok ilgilidir. Seul'deki 2024 AI Güvenlik Zirvesi'nde, 25 önde gelen AI araştırmacısı AI'nın kritik alanlarda hızlı ilerleme kaydettiği ve yakında benzeri görülmemiş kontrol sorunlarını artırabileceği konusunda uyardı. Openaai'nin kurucu ortağı olan Alman üst düzey yöneticisi Jan Leike ve Ilya Sutskever, aynı yıl da kendisini hatırlattı ve “süper-superingence” ın muazzam gücü insanlığı ve hatta yok olmayı engellemeye yol açabilir.
Birkaç uzman, Davos'taki Dünya Ekonomik Forumu'nun bir parçası olarak General AI hakkında konuşuyor.Mattias Nutt/Imageo
Otonom bir yapay zeka bir zamanlar askeri kullanımda olsaydı düşünülemez! Prensip olarak, KI özel problemlere değil, “genel AI” nın nispeten yakında, yani bir süper -süperlik olarak, tam anlamıyla öngörülemeyen bir güce dönüşmektedir.
Ustaca yapılan şey yapılır
Alman uzmanı Karl von Wendt doktorasını AI aldı; Teori ve pratikte dergi teknolojisi değerlendirmesinde uyardı: “Şansla, sadece birkaç yıl kaldığımızda hala en fazla yirmi yılımız var. AI artık kapatılamayacağından emin olabilirsiniz ”buna göre, AI'nın amacına göre çabaladığı en uygun dünya durumu“ büyük olasılıkla dileklerimizle uyumlu olmayacaktır ”. Bir tehlike aslında esas olarak General KIS'ten gelir, bu da neredeyse her problemi çözebilir ve uzun vadeli planlar yapabilir: “Gerçekten böyle 'evrensel dahi'ye ihtiyacımız yok.”
Performanslarının belirli bir noktasından, Wendt'e göre, bir genel AI ile kontrol edilemeyeceğini ve ne zaman kontrol edilemeyeceğini tahmin etmek imkansız olmalıdır. Bu nedenle, ona göre, genel bir yapay zekanın daha da geliştirilmesinden kaçınmak ve bunun yerine özel AI'ya enerji ve yatırım yapmak en akıllıca olacaktır. Ancak en gelişmiş teknolojilerin yapımcılarını bir feragat ve dikkatli insanlar olarak biliyorsunuz – ya da ekonomik nedenlerle hareket eden çağdaşlar ve rekabete göre rekabete göre daha fazla değil: “Yaslı nedir?” Bundan sonra, şimdi ABD'ye bakıyor.
Elon Musk, AI araştırması eleştirisiyle de bilinir.Patrick Pleul/DPA
Yapay zeka araştırmasına karşı kararsız tutumu musks
Son on yılda, şu anda ABD başkanının en yakın çevresi olan Elon Musk da Warners arasındaydı. AI'nın son derece tehlikeli olabileceği uzun zamandır açıktı. Diğer tanınmış kişiliklerle birlikte, 2023'te tüm teknoloji laboratuvarlarının AI sistemlerinin geliştirilmesini hemen kesmesi gerektiği talebiyle açık bir mektup yayınladı: Üreticiler makineleri gerçekten anlamadığı sürece, riskler çok büyük olacak Sistemler kursta edinilmiş bağımsızlık insanlık dışı bir yönelim kabul edebilir. Şu anda Trump projesinin maliyetleri konusunda uyardığını duyabilirsiniz.
Yapay zeka gelişimine yönelik kararsız tutumu, Erlangen teolojik etiği ile “longermism” felsefesine bir yakınlık ile ifadelerden görülebilir. İsveç transhumanisti Nick Bostrom ile karakterize edilen bu dönemde, “uzun zaman” ın anlamı.
Bu, özellikle uzak gelecek için ahlaki bir öncelik olarak mükemmel iyileştirmeler gören etik bir bakış açısıyla ilgilidir. Önümüzdeki nesillere ek olarak, insanlığın önümüzdeki bin yıllık hatta milyonlarca yıl boyunca uzun vadeli geleceği ile de ilgilenecek. Bu bir bilgelik görünümü var, ancak seçkin tehlike bugün ve yarın ihmal etmek için ihmalkar – sorgulanabilir çünkü insanlığın uzak bir geleceği olup olmayacağından bile emin değil.
Peter Dabrock-Former Alman Etik Konseyi Başkanı, Elon Musk'un AI gelişimine kıyasla kararsız ilişkisinin uzun süreye olan yakınlığına kadar uzanabileceğini düşünüyor.Jürgen Heinrich/imago
Bugünün nesli ideolojik bir ilerleme fikrine feda ediliyor
Bu kadar uzun vadeli bir bakış açısı açısından, ilk olarak yeni AI projesinde ifade edildiği gibi, ilerlemede görünüşte ileri görüşlü bir ortamı açıklayan ilk bakış açısı. İkincisi için Musk Mars Planet için çabalıyor. Ve üçüncü taraf için, Trump'ın Paris İklim Anlaşması'ndan eşzamanlı çıkışı belirli bir kanıt kazanıyor: Bugünün nesli ve yarının kuyusu iyi olmak oldukça soyut ve ideolojik bir ilerleme fikrine feda edilecektir.
Amerika Birleşik Devletleri'ndeki yeni “hükümet oligarşisi” hiçbir şekilde sadece milliyetçi kaygılarla ilgili değildir: önümüzdeki birkaç yıl için “altın çağa” ek olarak, insanlığın uzak bir geleceğinin teknik üretim cenneti de hedeflenmektedir. Bu kesinlikle olumlu gelebilir, ancak son derece riskli ve özellikle de ABD Başkan Yardımcısı JD Vance, Katolik Hıristiyan olarak Nasıralı İsa'nın göksel krallığı olan mutlak inançtan dikkate almalıdır.
Werner Thiede, Evang.-Luth'un emekliliğinde bir papaz. Bavyera'daki Kilise ve Erlangen-Nuremberg Üniversitesi'nde programsız sistematik teoloji profesörü.
Bu, açık kaynak girişimimizin bir parçası olarak gönderilen bir katkıdır.
Açık kaynak ile Berlin Verlag, ücretsiz yazarların yanı sıra içerik ve profesyonel kalite standartlarına sahip metinler sunmak isteyen herkese verir. Seçilen makaleler yayınlanır ve ödüllendirilir.
Bazıları şimdi ABD Başkanı Donald Trump tarafından açılışından sonra ilan edilen Stargate'i, özellikle daha fazla ilerlemeye ek olarak 100.000'den fazla yeni iş getirmesi gerektiği için en az 500 milyar dolarlık bir kapsamda kutluyor. Ancak diğerleri daha önce korkar – çeşitli nedenlerle.
Her halükarda, uzmanlar arasında yapay zekanın daha fazla gelişmesinin önünde ciddi Warner'ın bütün bir falanksının olması dikkat çekicidir. Şimdiye kadar, AI genişlemesinin destekçileri şimdiye kadar, sorunlu çıkışlarını çit alması gereken AI için etik düzenlemelere genel güvenlerini bulabildiler, şimdi Trump'ın devasa AI projesinin duyurusuna iptal edildiğini belirtmek zorundaydılar. yapay zekayı düzenlemek için önceki Joe Biden bir dekor.
En önemli AI geliştiricilerinin aktif olduğu Amerika Birleşik Devletleri'nin artık AI modellerinin devamı hakkında hükümet kılavuzlarına sahip olmaması, tamamen ekonomik ve teknik olarak avantajlı olabilir, ancak AI'nın üstel bir şekilde daha fazla gelişmesinin mevcut risklerini arttırabilir.
Kuşkusuz, Warners'ın önünde, şeytanlaştırmadan önce Warner var ve muhtemelen çok haklı değil. Ancak şey, AI uzmanlarının bir kısmından kolayca eleştirel itirazlar almak ve muhtemelen psikolojik olarak küçük konuşmak için çok ciddidir. Yapay zeka veri merkezlerine büyük yatırımların kaçınılmaz olduğu gerçeğinin meşru göstergesi, bu alanda rakip ülkeler üzerinde önemli bir ipucu ile önemlidir. Ancak, ciddi, bilgili endişelerin insanlığın hayatta kalmasından daha azıyla ilgili olduğu sorununa kıyasla ne kadar önemlidir?
Yapay zeka veri merkezlerine büyük yatırım gerçekten uygun mu?Mischa keijser/imago
Onlarca yıldır uyarı sesleri var
Onlarca yıldır bu yönde uyarı sesleri var. Birisi, örneğin, 1956 gibi erken bir tarihte sadece bugün teyit edilebilecek çok yüksek görüşlü bulguları formüle eden ve tahmin eden filozof Günther Anders tarafından “insanın antikliği” kitabını düşünüyor. Bu aynı zamanda meslektaşı Gernot Böhme “Invaziv Technization. 2008'den itibaren teknoloji felsefesi ve teknik eleştiri ”veya 2019“ der Underied Human ”da yayınlanan Armin Grunwald'ın kitabı. Algoritmalar, yapay zeka ve robotlar karşısında insanlığın geleceği ”.
Son zamanlarda, mükemmel araştırmalar nedeniyle, bazı televizyon programları gelecekteki bir yapay zekanın riskleri ile yoğun ve etkileyici bir şekilde ilgilenmiştir – özellikle sofistike yayıncı Arte'de görülmüştür. Tabii ki, Günther Anders Zeit, elbette, dünyamızdaki teknolojik gelişimin istenmeyen eleştirilerinin temelde ne kadar istenmeyen eleştirinin temelde ve nasıl dışlanabileceğini ve nasıl dışlanabileceğini gösterdi. Bununla birlikte, AI'nın günümüzde ciddi eleştirileri hiçbir şekilde sessiz değildir.
Yapay zekanın, bu kadar da denetlenen süper -supupintelligence yönünde kendi öğrenme gelişmeleri ile ilgili küresel tehlikeleri en çok ilgilidir. Seul'deki 2024 AI Güvenlik Zirvesi'nde, 25 önde gelen AI araştırmacısı AI'nın kritik alanlarda hızlı ilerleme kaydettiği ve yakında benzeri görülmemiş kontrol sorunlarını artırabileceği konusunda uyardı. Openaai'nin kurucu ortağı olan Alman üst düzey yöneticisi Jan Leike ve Ilya Sutskever, aynı yıl da kendisini hatırlattı ve “süper-superingence” ın muazzam gücü insanlığı ve hatta yok olmayı engellemeye yol açabilir.
Birkaç uzman, Davos'taki Dünya Ekonomik Forumu'nun bir parçası olarak General AI hakkında konuşuyor.Mattias Nutt/Imageo
Otonom bir yapay zeka bir zamanlar askeri kullanımda olsaydı düşünülemez! Prensip olarak, KI özel problemlere değil, “genel AI” nın nispeten yakında, yani bir süper -süperlik olarak, tam anlamıyla öngörülemeyen bir güce dönüşmektedir.
Ustaca yapılan şey yapılır
Alman uzmanı Karl von Wendt doktorasını AI aldı; Teori ve pratikte dergi teknolojisi değerlendirmesinde uyardı: “Şansla, sadece birkaç yıl kaldığımızda hala en fazla yirmi yılımız var. AI artık kapatılamayacağından emin olabilirsiniz ”buna göre, AI'nın amacına göre çabaladığı en uygun dünya durumu“ büyük olasılıkla dileklerimizle uyumlu olmayacaktır ”. Bir tehlike aslında esas olarak General KIS'ten gelir, bu da neredeyse her problemi çözebilir ve uzun vadeli planlar yapabilir: “Gerçekten böyle 'evrensel dahi'ye ihtiyacımız yok.”
Performanslarının belirli bir noktasından, Wendt'e göre, bir genel AI ile kontrol edilemeyeceğini ve ne zaman kontrol edilemeyeceğini tahmin etmek imkansız olmalıdır. Bu nedenle, ona göre, genel bir yapay zekanın daha da geliştirilmesinden kaçınmak ve bunun yerine özel AI'ya enerji ve yatırım yapmak en akıllıca olacaktır. Ancak en gelişmiş teknolojilerin yapımcılarını bir feragat ve dikkatli insanlar olarak biliyorsunuz – ya da ekonomik nedenlerle hareket eden çağdaşlar ve rekabete göre rekabete göre daha fazla değil: “Yaslı nedir?” Bundan sonra, şimdi ABD'ye bakıyor.
Elon Musk, AI araştırması eleştirisiyle de bilinir.Patrick Pleul/DPA
Yapay zeka araştırmasına karşı kararsız tutumu musks
Son on yılda, şu anda ABD başkanının en yakın çevresi olan Elon Musk da Warners arasındaydı. AI'nın son derece tehlikeli olabileceği uzun zamandır açıktı. Diğer tanınmış kişiliklerle birlikte, 2023'te tüm teknoloji laboratuvarlarının AI sistemlerinin geliştirilmesini hemen kesmesi gerektiği talebiyle açık bir mektup yayınladı: Üreticiler makineleri gerçekten anlamadığı sürece, riskler çok büyük olacak Sistemler kursta edinilmiş bağımsızlık insanlık dışı bir yönelim kabul edebilir. Şu anda Trump projesinin maliyetleri konusunda uyardığını duyabilirsiniz.
Yapay zeka gelişimine yönelik kararsız tutumu, Erlangen teolojik etiği ile “longermism” felsefesine bir yakınlık ile ifadelerden görülebilir. İsveç transhumanisti Nick Bostrom ile karakterize edilen bu dönemde, “uzun zaman” ın anlamı.
Bu, özellikle uzak gelecek için ahlaki bir öncelik olarak mükemmel iyileştirmeler gören etik bir bakış açısıyla ilgilidir. Önümüzdeki nesillere ek olarak, insanlığın önümüzdeki bin yıllık hatta milyonlarca yıl boyunca uzun vadeli geleceği ile de ilgilenecek. Bu bir bilgelik görünümü var, ancak seçkin tehlike bugün ve yarın ihmal etmek için ihmalkar – sorgulanabilir çünkü insanlığın uzak bir geleceği olup olmayacağından bile emin değil.
Peter Dabrock-Former Alman Etik Konseyi Başkanı, Elon Musk'un AI gelişimine kıyasla kararsız ilişkisinin uzun süreye olan yakınlığına kadar uzanabileceğini düşünüyor.Jürgen Heinrich/imago
Bugünün nesli ideolojik bir ilerleme fikrine feda ediliyor
Bu kadar uzun vadeli bir bakış açısı açısından, ilk olarak yeni AI projesinde ifade edildiği gibi, ilerlemede görünüşte ileri görüşlü bir ortamı açıklayan ilk bakış açısı. İkincisi için Musk Mars Planet için çabalıyor. Ve üçüncü taraf için, Trump'ın Paris İklim Anlaşması'ndan eşzamanlı çıkışı belirli bir kanıt kazanıyor: Bugünün nesli ve yarının kuyusu iyi olmak oldukça soyut ve ideolojik bir ilerleme fikrine feda edilecektir.
Amerika Birleşik Devletleri'ndeki yeni “hükümet oligarşisi” hiçbir şekilde sadece milliyetçi kaygılarla ilgili değildir: önümüzdeki birkaç yıl için “altın çağa” ek olarak, insanlığın uzak bir geleceğinin teknik üretim cenneti de hedeflenmektedir. Bu kesinlikle olumlu gelebilir, ancak son derece riskli ve özellikle de ABD Başkan Yardımcısı JD Vance, Katolik Hıristiyan olarak Nasıralı İsa'nın göksel krallığı olan mutlak inançtan dikkate almalıdır.
Werner Thiede, Evang.-Luth'un emekliliğinde bir papaz. Bavyera'daki Kilise ve Erlangen-Nuremberg Üniversitesi'nde programsız sistematik teoloji profesörü.
Bu, açık kaynak girişimimizin bir parçası olarak gönderilen bir katkıdır.
Açık kaynak ile Berlin Verlag, ücretsiz yazarların yanı sıra içerik ve profesyonel kalite standartlarına sahip metinler sunmak isteyen herkese verir. Seçilen makaleler yayınlanır ve ödüllendirilir.