Büyük Veri

0
258

Büyük veriler uzun zamandır etrafta. Burada size etkili hesaplama gücü verecek dört en iyi uygulamayı bulabilirsiniz.

 

Dünya büyük veriler için deliye dönmüş durumda. Buna rağmen şirketler halen verileri toplayıp analiz ederek müşteriler hakkında derin bilgilere nasıl ulaşacağını ve nasıl daha iyi iş kararları vereceklerini anlamakta zorluk çekiyor.

 

Tüm abartılı büyük veri olayları arasında, kurumsal veri deposu dönemi ile aynı kadere mahkûm görünüyoruz, nelerin değiştiğini anlamıyoruz. Belki siz de fark etmişinizdir; günümüzde – genellikle sorulan sorular kurumsal veri deposu gündeme geldiğinde sorulanlarla aynı: “ Ne kadar büyük bir veriden bahsediyoruz?”

 

Aslında soru şöyle olmalı: “ Bu veriden ne öğrenebiliriz?”

 

Büyük fırsatlara kapı açan değişimin hesaplama gücü – ya da büyük hesaplama – olduğunu hala anlayamadık. Küçük fiyatlarla büyük hesaplamalar yapmak şirketlerin daha önceden mümkün olmayan yollarla veriye bakmasını ve veriyle başa çıkmasını sağlıyor. Bu hesaplama kapasitesi veriyi uyulması gereken bir zorunluluktan iş değerine çevirme potansiyeline sahip.

 

Organizasyonlar her zaman veri topladılar, ancak yakın zamana kadar bunları işleyebilecek büyük ölçekli parçalı hesaplamalar ve analitik algoritmalar yüksek maliyetliydi. Bu artık bir sorun değil ve birçok organizasyon büyük veri ile testler yapıyor. Ancak bunları analiz etmek için ne yetenek ne de alet yatırımı yapıyorlar, bu da bir bahçe yapıp sulamamaya benziyor.

 

2014 yılında, büyük veriler yapılandırılmamış içerik yığını olarak tanımlandı. Bu yıl, büyük veri giderek daha çok nesnelerin internetinden toplanan sensor verisi olarak tanımlanacak. Her endüstrideki liderler ellerinde bulunan bu verilerin potansiyelini açığa çıkarmanın yollarını bulmaya başladılar. Verileri açığa çıkarmanın doyumsuz isteği, model çıkarma, ve verileri paraya dönüştürmek yüksek performanslı bilgisayarlarla inanılmaz değişti.

 

Son kıvrımda, konuşmalar büyük verilerden öğrenen makinelere kaydı. Makine öğreniminin temelleri 1950’lerde kuruldu. Şimdilerde ise bu; yapay zekâ, istatistik ve veri madenciliği gibi disiplinlerin kesişiminde bulunuyor. Ön çalışmalar Alan Turing gibi yapay zekânın önde gelenlerine dayanıyor, ancak kavram 1990’lara kadar bu kadar benimsenmemişti. “Neden?” Tek bir sebeple, o dönemlerde hesaplamalar toplu benimsemeler için çok pahalı idi. Günümüzde, bir makinaya poker oynamayı öğretmek yada bir kediyi tanımlamayı öğretmek için milyarlarca simülasyon yürütüyoruz.

 

İstatistik, öngörü ve optimizasyonun prensipleri aynıdır, ancak büyük hesaplama fırsatlarını kaçırmamak için, kural kitabınızı dört yolla modernize etmeniz çok önemlidir:

 

Eğitim önerin. Veri bilimcilerine destek veren IT takımlarına eğitim yatırımı yapın, iş analistlerinden veritabanı mimarlarına kadar. Bu insanların hem olasılık sanatını hem de titiz bir analiz yapmada veri düzenlemenin önemini kavramaları için analitiğin temellerini anlamaları gerek.

 

Veri erişimi sağlayın. Veri yönetimine odaklanın ve ona erişimi hızlandırın ve geliştirin, yasaklamayın. Hız ve çeviklik kolay fakat yönetilebilir erişime bağlıdır.

 

Keşifleri etkinleştirin. Büyük ölçekli küme işlemleri destekleyen analitik “sandbox” ortamlara yatırım yapın. Bu sizin veri bilimcilerinizin verilerinize daha derinlemesine bakma imkânı ve bunlarda gizli ilişkileri ve anlamları bulma imkânı sağlar.

 

Çevik olun. Bırakın kâşiflerinizin başarısızlıkları hızlı olsun, ama onların başarılarını da pazarladığınızdan emin olun. Büyük hesaplamaları ve analitiği bir araya getirmenin geri dönüşü bileşik faiz gibidir: kazandırmaya devam eden bir hediye.

 

Bu makale Keith Collins’in 2 Mart 2015 tarihinde informationweek.com’da yayınlanan yazısından çevrilmiştir.

 

CEVAP VER

Please enter your comment!
Please enter your name here