İnsanlar Ve Teknoloji Riski Nedir?

Sıradaki içerik:

İnsanlar Ve Teknoloji Riski Nedir?

İnsanlar Ve Teknoloji Riski Nedir?

avatar

nasilbe

  • e 0

    Mutlu

  • e 0

    Eğlenmiş

  • e 0

    Şaşırmış

  • e 0

    Kızgın

  • e 0

    Üzgün

Rate this post

Neden Teknoloji İnsan Haklarını Riske Sokar?

Giderek, otonom ve akıllı olan hesaplamalı teknolojilerle yaşıyor, ve oynuyoruz. Bu sistemler, bağımsız akıl yürütme ve karar verme kapasitesine sahip yazılım ve donanımı içerir. Fabrika katında bizim için çalışıyorlar; İpotek alabileceğimize karar verirler. Otonom ve akıllı sistemler, gündelik yönleri de içeren sosyal, ekonomik, politik ve özel hayatlarımızın neredeyse her yönünü etkileme potansiyeline sahiptir. Bunun çoğu masum görünüyor, ama endişe nedeni var. Sayısal teknolojiler, her insan hakkını, sağdan yaşama, gizlilikten mahremiyete, sosyal ve ekonomik haklara ifade özgürlüğünü etkiler. Peki robotik ve yapay zeka (AI) tarafından giderek şekillenen teknolojik bir manzaradaki insan haklarını nasıl savunabiliriz?

AI ve insan hakları

İlk olarak, makine otonomisinin artmasının insanların durumunu zayıflatacağına dair gerçek bir korku var. Bu korku, akıllı makinelerin zarar vermesi durumunda, yasal veya ahlaki anlamda olsun, kimlerin hesaba katılacağı konusundaki açıklık eksikliğiyle birleştirilir. Ancak, insan hakları konusundaki kaygımızın odak noktasının gerçekten de hileli robotlarla yattığından emin değiliz. Daha ziyade, robotların ve yapay zekanın insan kullanımı ve adaletsiz ve eşit olmayan politik, askeri, ekonomik ve sosyal bağlamlarda konuşlandırılması konusunda endişelenmeliyiz. Bu endişe özellikle katil robotlar olarak tanımlanan ölümcül otonom silah sistemleri (LAWS) ile ilgili olarak özellikle geçerlidir. Biz gibi bir AI silahlanma yarışına doğru hareket, insan hakları alimler ve Christof Heyns, yargısız, kısa veya infazları inceleyen eski BM özel raportörü olarak kampanyacılar YASALARA kullanılması bağımsız robotik sistemler koyacağız korkusu ölüm kalım kararları sorumlu Sınırlı veya hiç insan kontrolü ile. AI ayrıca savaş ve sürveyans uygulamaları arasındaki bağlantıda devrim yaratıyor. Uluslararası Robot Silah Kontrolü Komitesi (ICRAC) gibi gruplar, Google’ın, yargısız infazlarda kullanılabilecek drone gözetleme kameralarını analiz etmek için makine öğrenimini kullanan bir askeri program olan Project Maven’e katılımlarına karşı olduklarını belirtti. Icrac itiraz projede şirketin katılımı üzerinde Google çalışanları tarafından protesto katılmadan, kullanıcılarına ait topladığı veriler askeri amaçlarla kullanılan asla emin olmak için Google’a. geçtiğimiz günlerde sözleşmesini yenilemeyeceğini açıkladı.

Bilişim teknolojilerinin insan haklarına ve fiziksel, politik ve dijital güvenliğe yönelik potansiyel tehdidi, son zamanlarda yayınlanan Yapay Zekaların Kötü Amaçlı Kullanımı üzerine yapılan bir çalışmada vurgulanmıştır. Bu Cambridge Üniversitesi raporunda ifade edilen kaygılar ciddiye alınmalıdır. Fakat bu tehditlerle nasıl başa çıkmalıyız? İnsan hakları robotik ve yapay zeka dönemi için hazır mı? Bu çabalar övgüye değer ama yeterli değil. Hükümetler ve devlet kurumları, siyasi partiler ve özel şirketler, özellikle de önde gelen teknoloji şirketleri, AI’nın etik kullanımlarına bağlı kalmalıdır. Ayrıca etkili ve uygulanabilir yasama kontrolüne de ihtiyacımız var.

Hesaplamalı teknolojilerin ikili kullanımı için kapasite, faydacı ve kötü niyetli uygulamalar arasındaki çizgiyi bulanıklaştırıyor. Dahası, hesaplama teknolojileri, bireysel vatandaşlar, devlet ve kurumları ile özel şirketler arasındaki eşitsiz güç ilişkilerine derinden bağlıdır. Ulusal ve uluslararası etkili kontrol ve dengelerden yoksun bırakılırsa, insan haklarımıza karşı gerçek ve endişe verici bir tehdit oluştururlar.

  • Site İçi Yorumlar

Aşağıdaki Boş Yeri Doldurun *Captcha loading...

En az 10 karakter gerekli

Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.