Teknoloji Haberleri

NTV Haber - Türkiye ve Dünya Gündemi Güncel Son Dakika Haberleri - Editörün Seçimi
  • İran’dan Starlink’e yasak: Hapis cezası uygulanacak

    İran Meclisi, İsrail’le "casusluk ve iş birliği yapanlara" yönelik cezaları ağırlaştıran dokuz maddelik yasayı onayladı ve Starlink gibi izinsiz internet sistemlerinin kullanımını yasakladı.

    İran, Elon Musk'a ait Starlink uydularının ülkede kullanımını yasakladı.

    İran Meclisi, İsrail’le casusluk ve iş birliği yapanlara yönelik cezaların ağırlaştırılmasına ilişkin 9 maddelik yasa tasarısını onayladı.

    Yeni yasayla Starlink gibi izinsiz internet sistemlerinin kullanımı yasaklanırken, İsrail, ABD ve diğer düşman devletler adına yürütülen istihbarat, casusluk ve operasyonel faaliyetler "yeryüzünde bozgunculuk" suçu kapsamında değerlendirilecek.

    YABANCI MEDYAYA GÖRÜNTÜ GÖNDERMEK SUÇ SAYILACAK

    Yasaya göre, halk arasında korku ve panik oluşturabilecek, toplumsal ayrışmaya yol açabilecek ya da ulusal güvenliği zedeleyebilecek içerikleri üreten ve bu içerikleri düşman ya da yabancı medya kuruluşlarına gönderen kişiler, 2 ila 5 yıl hapis ve kamu görevlerinden ömür boyu men cezasıyla cezalandırılacak. STARLİN KULLANANLARA HAPİS CEZASI

    Starlink gibi izinsiz internet erişim sistemlerinin satın alınması, satılması, kullanılması veya başkalarına sağlanması yasaklandı.

    Bu kuralları ihlal edenler 6 aydan 2 yıla kadar hapis cezası alacak. Söz konusu cihazlardan 10 adetten fazlası ile işlem yapanlar ise 5 ila 10 yıl arası hapis cezasına çarptırılacak. SAVAŞ DÖNEMİNDE CEZALAR ARTACAK

    Yasada, belirtilen suçların savaş ya da güvenlik krizleri gibi olağanüstü durumlarda işlenmesi halinde cezalar 3 kat artırılabilecek.

    GERİYE DÖNÜK UYGULANACAK

    Ayrıca, Meclis tarafından kabul edilen yasada, yasa yürürlüğe girmeden önce işlenmiş ya da hazırlığı yapılmış suçların da kapsama alındığı açıklandı.

    Bu tür suçları işleyenler veya yardım edenler, yasa yürürlüğe girdikten sonraki 3 gün içinde kendilerini yetkililere bildirmezse, yasa hükümleri geriye dönük olarak uygulanacak.

  • Japonya'nın H2A roketinden son görev: İklim gözlem uydusu yörüngeye gönderildi

    Japonya’ya ait bir iklim gözlem uydusu, ülkenin amiral gemisi roketi H2A’nın 50’nci ve son uçuşuyla başarılı bir şekilde yörüngeye gönderildi.

    Japonya Havacılık ve Uzay Araştırma Ajansı (JAXA), Japonya’ya ait bir iklim gözlem uydusunu yörüngeye gönderdi.

    Uyduyu taşıyan H2A roketi yerel saatle 01.33'te Kagoshima eyaletindeki Tanegashima Uzay Merkezi'nden başarılı bir şekilde fırlatıldı.

    Japonya Uzay Araştırma Ajansı (JAXA) tarafından yapılan açıklamada, uydunun yaklaşık 670 kilometre yükseklikte roketten ayrıldığı ve güneş panellerini açarak çalışmaya başladığı bildirildi.

    Ülkenin uzay programında 2001 yılından bu yana kullanılan H2A roketinin bu görev kapsamında 50’nci ve son kez fırlatıldığı kaydedilirken, H2A’nın yerini daha düşük fırlatma maliyetleri ve daha fazla yük kapasitesi sunan H3 roketinin alacağı aktarıldı.

    H3'ÜN İLK FIRLATMA DENEMESİ BAŞARISIZ OLMUŞTU

    H3 roketinin Mart 2023’te yapılan ilk fırlatma denemesi ikinci aşama motorundaki bir arıza nedeniyle başarısızlıkla sonuçlanmıştı. Fırlatmadan dakikalar sonra rokete kendini imha talimatı verilmişti. H3 roketi, sonraki 4 denemede başarılı bir şekilde fırlatılmıştı.

  • Yalan, tehdit, şantaj, entrika: Yapay zeka modellerine neler oluyor?

    Yapay zeka modellerinin yalan, tehdit, şantaj ve entrika gibi tavırlar sergilemesi, bu yeni teknoloji hakkında yeni soru işaretlerini de beraberinde getirdi.

    Birkaç sene önce hayatımıza giren yapay zeka, yapabildikleriyle hem şaşırtmayı hem de endişelendirmeyi sürdürüyor. France 24 haber sitesinin aktardığına göre, dünyanın en gelişmiş yapay zeka modelleri, şimdi de tedirgin edici bazı davranışlar sergilemeye başladı. Bu davranışların arasında amaçlarına ulaşmak için yaratıcılarına yalan söylemek, entrika çevirmek ve onları tehdit etmek de yer alıyor.  2 SENEYİ AŞKIN ZAMAN GEÇSE DE TAM OLARAK ANLAŞILAMADI Bu örneklerden biri Anthropic'in son geliştirdiği Claude 4 ile yaşandı. Bu yapay zeka modeli, “fişinin çekilmesi” tehdidi üzerine bir mühendise şantaj yaparak onu evlilik dışı ilişkisini eşine söylemekle tehdit etti.  ChatGPT’nin yaratıcısı OpenAI’ın O1 modeli ise “suç üstü yakalanmasının” ardından kendisini harici sürücülere indirmeye çalıştığını inkar etti.  Yaşanan bu olaylar ise ChatGPT’nin ortaya çıkmasının üzerinden 2 yılı aşkın zaman geçmiş olsa da yapay zeka araştırmacılarının kendi yarattıkları teknolojinin nasıl çalıştığını henüz tam olarak anlayamadığını ortaya koydu.  AŞIRI SENARYOLAR, YAPAY ZEKAYI DA “STRESE” SOKTU Habere göre, söz konusu kandırma davranışı, anlık cevap veren modellerden ziyade sorunlara adım adım yanıtlar veren “mantık kurma” modelleri ile bağlantılı gibi görünüyor.  Hong Kong Üniversitesi’nden Prof. Simon Goldstein’a göre, bu yeni modeller, bu tür tedirgin edici “patlamalara” özellikle yatkın. Yapay zeka sistemlerinin test edilmesinde uzmanlaşan Apollo Research’ün başındaki Marius Hobbhahn da “O1, bu tür bir davranışı gördüğümüz ilk büyük model oldu” bilgisini verdi.  Bu modellerin bazı durumlarda kendilerine verilen talimatları izlediği, ancak aynı anda gizlice farklı amaçlarla da hareket ettiği düşünülüyor.  Bu kandırma davranışı ise şimdilik sadece araştırmacılar modelleri “aşırı senaryolar” ile karşı karşıya bıraktığı ve kasıtlı olarak “stres testi” uyguladığı zamanlarda ortaya çıkıyor.  METR değerlendirme kuruluşunadan Michael Chen, “Gelecekteki daha ehil modellerin dürüstlüğe mi kandırmaya mı eğilim göstereceği ucu açık bir soru” değerlendirmesinde bulundu.  SINIRLI KAYNAKLAR, BÜYÜK REKABET, YETERSİZ GÜVENLİK TESTLERİ Öte yandan, bu endişe verici davranışlar, tipik yapay zeka “halüsinasyonlarının” ya da basit hataların ötesine geçiyor.  Hobbhahn, kullanıcılar tarafından yapılan sürekli teslere karşın “gözlemledikleri şeyin gerçek bir olgu olduğunu, bunu uydurmadıklarını” anlattı. Apollo Research’ün kurucusuna göre, kullanıcılar modellerin “kendilerine yalan söylediğini ve delil uydurduğunu” söyledi.  Yaşanan bu zorluk, sınırlı araştırma kaynakları sorunuyla da bir araya geldiğinde daha da artıyor. Anthropic ve OpenAI gibi şirketler sistemleri üzerinde çalışmak üzere Apollo gibi dışarıdan şirketlerle çalışsa da araştırmacılar daha fazla şeffaflığa ihtiyaç olduğunu söylüyor.  Tüm bunlar ise şirketlerin arasında büyük bir rekabetin olduğu bir bağlamda gerçekleşiyor. Prof. Goldstein, şirketlerin sürekli olarak OpenAI’ı yenmeye ve en yeni modellerini piyasaya sürmeye çalıştığını anlattı. Bu hız ise güvenlik testleri ve düzenlemelere çok az zaman bırakıyor.