Büyük Veri'yle İlgili Doğru Bilinen Yanlışlar
Büyük veri ve büyük verinin analiz edilerek işletmeler tarafından kullanılması, iş dünyasının dijital yapılanmasıyla birlikte gün geçtikçe gelişim gösteriyor.
Bu her ne kadar önemli bir konu da olsa, Büyük Veri’nin daha fazla dikkat çeken yönleri genellikle diğer iki V oluyor: Variety (Çeşitlilik) ve Velocity (Hız). Hız, duraksız iletilen veriyi ve çok hızlı veriyi ifade ediyor. Düşük gecikme süreleri olan veriler bir veri havuzunda toplanıyor ve bu dainsanların daha hızlı (hatta otomatik) karar almalarına olanak sağlıyor.”
Bu her ne kadar önemli bir konu da olsa, Büyük Veri’nin daha fazla dikkat çeken yönleri genellikle diğer iki V oluyor: Variety (Çeşitlilik) ve Velocity (Hız). Hız, duraksız iletilen veriyi ve çok hızlı veriyi ifade ediyor. Düşük gecikme süreleri olan veriler bir veri havuzunda toplanıyor ve bu dainsanların daha hızlı (hatta otomatik) karar almalarına olanak sağlıyor.”
EMC’nin Global Eğitim Hizmetleri bölümünün Teknik Danışmanı David Dietrich, büyük veri konusunda karşılaştığı "doğru bilinen yanlışları" yorumladı.
Büyük veriyle ilgili en önemli şey boyutudur
David Dietrich, Büyük Veri’nin boyutunu şöyle anlatıyor: “Büyük Veri daha çok verinin boyutu ile ilgilidir çünkü Büyük Veri adı üstünde büyüktür, öyle değil mi? Harvard Üniversitesi Kantitatif Sosyal Bilimler Enstitüsü’ndenGary King’e göre pek de öyle değil… Geçmişe göre daha fazla miktarda veriyle çalışıldığı bir gerçek, ancak insanlar ağırlıklı olarak gigabaytlara, terabaytlara, petabaytlara odaklanırsa, Büyük Veri’ye de veri depolamave teknoloji ile ilgili bir sorun olarak bakıyorlar demektir.

Birçok insan verileri rakamlardan oluşan sütun ya da satır olarak düşünür, örneğin bir Excel tablosu, RDBMS ve terabaytlarca yapılandırılmış veri saklayan veri depoları gibi… Bu doğru olsa da, Büyük Veri ağırlıklı olarakyarı-yapısal ya da yapılandırılmamış verilerle ilgilidir. Büyük Veri insanların veriler hakkında düşünürken aklına gelmeyen, RFID yongaları, akıllı cep telefonlarındaki jeo-uzamsal sensörler, resimler, video dosyaları, ses tanıma verileri ve bu verilerle ilgili meta veriler gibi diğer unsurların tümünü içerir.
Şirketimin mevcut yapısıyla Büyük Veri’yi analiz edebilirim
İşletmelerin, büyük veriyi işlerken farklı tür veri girdilerini (görsel, tıklama dizisi, video, ses ses izleri, XML, ...) anlayabilen, depolayabilen, analiz edebilen ve bu verileri paralel bir şekilde işleyebilen yeni araçlara ihtiyacıvardır. Bu nedenle sektörde, bu ayrı veri kaynaklarını yönetebilen ve onlarla paralel bir şekilde ilgilenebilen yeni teknolojilere ihtiyaç duyuluyor.
Kusurlu veri kalitesi Büyük Veri’nin değersiz olduğu anlamına gelmeli
Büyük Veri kuşkusuz dağınık olabilir ve veri kalitesi de her tür analiz için önemlidir. Ancak, unutulmaması gereken önemli şey verinin doğası gereği “gürültülü” olduğudur. Yani, dikkati dağıtacak birçok şey, farklı birçok anormallik ve tutarsızlık olacaktır. Önemli olan budanabilen ve değerli analizler için kullanılabilen verinin miktarına ve çeşitliliğine odaklanmaktır. Bazı durumlarda, işletmeler büyük veri kaynaklarını ayrıştırmak vetemizlemek isteyecektir, bazılarında ise bu daha az önemli olacaktır.
Dietrich, bu noktada “
Google Trends” örneğinden yola çıkıyor ve şöyle açıklıyor: "Google Trends, Google’da en çok arama yaptıkları başlıkları gösterir. Örneğin
insanların 2013 senesi boyunca
Google’da en çok arama yaptığı başlıkları bulmak istediğimizi düşünelim... Yapılan aramaları taramak ve sıralamak olağanüstü büyük bir
depolama kapasitesi,
işlemcigücü ve güçlü analitik teknikler gerektirir. Bu
GİGO’ya daha az odaklanılan Büyük Veri kullanımına bir örnektir."
kaynak
Yorumlar(0)