WE WORK LIKE ARTI- SANS
İNDİRİLEBİLİR DOKÜMANLAR

Büyük Veri Analizi

Big data terimi, geleneksel veri işleme uygulamalarının yetersiz kaldığı çok büyük ve karmaşık veri setlerini ifade eden oldukça geniş bir terimdir. Big Data kavramının üstesinden geldiği sorunlar arasında analiz, veri toplama, arama, paylaşma, depolama, transfer, görselleştirme ve bilgi gizliliği bulunmaktadır. Bu kavram,  genellikle tahmine dayalı analiz kullanımını ya da verilerden değer elde eden diğer bazı gelişmiş yöntemleri ve nadiren de veri kümesinin belirli bir boyutunu ifade eder. Big data verdiği sonuçlar daha güvenilir kararlar vermeye öncülük eder ve daha güvenilir kararlar daha büyük operasyonel verimlilik, daha az maliyet ve daha düşük risk anlamına gelir.

Neden Big Data? 

  • Büyük verinin yaygınlaşması ile beraber artık “sanayileşmiş internet” çağına giriyoruz.
  • GE, Big Data’nın önümüzdeki 20 yıl içerisinde GSMH’ya olan katkısını 10-15 trilyon USD olarak öngörmektedir.
  • Büyük Veri teknoloji ve hizmetleri pazarı 2018 yılına kadar %26.4 yıllık birleşik büyüme oranıyla 41,5 milyar dolar büyüyecek.
  • Son iki yılda üretilen veriler, insanlık tarihinin ürettiği bütün önceki verilere eşittir.
  • İşgücü açığı ve karşılanması arasında büyük bir uçurum var: 2015'te 4.4 milyon Big Data işgücü açığının yalnızca 1/3'i karşılanabilmiştir.

Partnerimiz IBM ile beraber yürüttüğümüz Big Data projelerimizi daha iyi anlayabilmeniz için IBM hakkındaki aşağıdaki maddelere göz atın:

  • IBM, “machine learning” ve “predictive data analyses” üzerine kurulu bir yazılım ve danışmanlık firmasıdır.
  • IBM, makine öğrenimi ve proaktif karar vermeyi sağlayan sanal bir platform geliştirmiştir. Özellikle çağrı merkezi ihtiyaçlarını karşılamak üzere üretilmiş Watson Virtual Agent'ı buna örnek gösterebiliriz.
  • IBM bünyesinde çalışan data scientist'ler farklı sektörler ve alanlardan müşterilerin ihtiyaçlarına yönelik şablonlar oluştururlar. (pazarlama, siber güvenlik, üretim ve operasyon)