NoSQL nedir? Nosql & Rdbms karsilastirmasi.

Merhaba arkadaşlar

Öncelikle verileri hangi amaçla kullanacağımıza karar verelim. İki temel kullanım yöntemini inceleyelim.

1-Analitik kullanım

Amaç geleceğe doğru yapacağımız seçimler ise batched olarak gelen veriler , son derece büyük veriler üzerinden yapılan hesaplamaları analitik olarak değerlendirebiliriz.

2-Operasyonel kullanım

Amaç anlık (şuan) ise gerçek zamanlı çalışmalar data flowlar ve datanın process edilmesi ise çok hızlı okumaya ve çok hızlı yazmaya ihtiyacımız var demektir.

Hadoop ne demektir ? Hadoop Batch-oriented analytical database systemi olarak nitelendirilebilir. Analitik kullanım ve büyük miktardaki veri için çok iyi bir sistemdir.

NoSQL ne demektir? Nosql ise Real-time operational database sistemidir. Operasyonel işler ve hız gerektiren işlerde ideal bir sistemdir.

Günümüzde RDBMS sistemlerin Cloud ölçeğinde Milyonlarca concurrent kullanıcı karşısında performansları düşük kalmaktadır. Veri esnekliği bakımından esnek değilllerdir. Bir database modelliğimiz senaryoda bir değişiklik çok zordur.

ekran-resmi-2017-02-09-11-52-14

Resimdende anlaşılacağı gibi RDBMS sistemlerinde kullanıcı sayısı arttıkça sistemin maliyeti inanılmaz artar ancak uygulama performansı bu artışa paralellik gösteremez. Cloud uygulamalarında ise sadece yeni makinalar ekleyerek düşük maliyetle sisteminizin performansını paralel götürebilirsiniz.

Bugun mobile uygulamaların kullanım oranlarını düşündükçe nasıl bir database ile çalışmamız gerektiğini daha doğru anlayabilirsiniz.

RDBMS & NOSQL karşılaştırması

Mimari olarak bakıldığında

RDBMS databaseler DISK first yaklaşımındadır.Yani genellikle mimarileri

Write to disk  —–>>> Log for availability —–>>> Cache index in memory

(okuma yazma işleri diskten)

şeklindedir.

NOSQL databaseler ise Memory first yaklaşımındadır.

CACHE data in memory —–>> replicate for availability —–>> Write to disk

(okuma yazma işleri öncelikle memoryden)

şeklindedir.

RDBMS databaseler 1970 ortaya çıkmış ve Oracle tarafından dünyada ilk ticari database 1979 üretilmiştir. Amacı normalization üstündedir. Temeli OLTP ye dayanır. Select ettiğimizde birçok tabloyu join yapmamız ve bunun neticesinde artan costlar ortaya çıkar.

NOSQL databaseler ise yapısı gereği hızlı ve esnektirler.

NOSQL databaseler RDBMS gibi aynı özellikte değillerdir.

Tercihlerimize göre

KEY-VALUE NOSQL databaseler

Key ve basit valuesunu tutarlar

örnek

Vno::123456 Value:Zekeriya

 

Document NOSQL databaseler

Key ve Structure değer tutar(document)

VNO::123456 {name:’Zekeriya’,age:42,ceptel:[542777777,53211111,5523333333]}

 

Column-Family nosql databaseler

key ve  kolon setlerinden  oluşur.

name:text         Zekeriya

age: number    42

VNO:123425                                               54277777777

cep:number        552343535366

52425526277

 

Graph Nosql Databaseler

Linkedindeki connectionlarınız ,pagerank gibi kullanımlar için .

 

Sevgili arkadaşlar tahmin ettiğiniz üzere konu son derece detaylı ve önemli. Son yıllarda bir çok projede NOSQL database teknolojisi kullanarak projelerde inanılmaz farklar yarattık. Bu gelişmeleri sizlerle detaylı paylaşabilirim. Siz bu yeni nesil teknolojilerle ilgileniyorsanız kurumunuzda ücretsiz bir seminer düzenleyip

1-Hangi NOSQL database i hangi işlerde tercih etmeliyim

2-Key-Valuede hangi vendorı tercih etmeliyim? Column Familyde hangisini? Documentde hangisini?

3-CAP nedir? Biz nerdeyiz

4-Scale up mı Scale out mu?

5-Static data model mi ? Flex data modelmi?

6-Normalizationmı-De normalizationmı detaylı anlatabilir ve tartışabiliriz.

Imkanı olan arkadaşlarımında bu konuda Bilginc IT Academyde detaylı bir eğitim organize edebiliriz.

Bana ulaşmak için zekeriyab@bilginc.com , zekeriyabesiroglu@gmail.com ve 0542 768 00 00 kullanabilirsiniz.

Selamlar ,Saygılar

 

 

 

 

 

Big Data ile Sektörel Çözümler Semineleri (Ücretsiz)

Arkadaşlar selamlar. Big data ile ilgili yaptığımız projeler ve yeni gelişmelerin sektörünüze ne yenilikler getirdiği konusunda ücretsiz seminerler düzenliyoruz. Sigortacılık,Telekom,Finans,Üretim,Sağlık sektörleri başta olmak üzere aşağıda konu başlıklarını bulabilirsiniz. İlginizi çeken konu başlığı konusunda bana zekeriyab@bilginc.com adresinden ulaşabilirsiniz.

Seminer süresi 1-2 saat cıvarında ve uygulamalı olacaktır.

Delivering Data-Driven Transformations in Insurance (Sigortacılık)

Business Critical Architecture for Healthcare (Sağlık)

Financial Services Use Case Top 5 International Banks(True Hadoop journey – Finans)

Hadoop in Telecom (Data-entric transformation – Telekom)

Delivering Data-Driven Transformation in Automotive & Manufacturing    (Connected Car-Industrial manufactoring,Pharma-Chemical,Hi tech,Aerospace-defense)

NO-SQL database çözümleri

Nosql database nedir? HBASE Nedir? COUCHBASE nedir?

Merhaba arkadaşlar,

Günümüz dünyasında ilişkisel veritabanı modellerinin birbirinin neredeyse aynısı olduğu söylemek mümkün. Örneğin bir Mysql database ile Oracle database arasında Rdbms olarak bir fark olduğu söylemek son derece güç genelde farkın güvenlik , performans ve veri büyüklüğü karşısında Cluster çalışma mantığından geldiğini söyleyebilirim. RDBMS konusunda bence en iyi database pazardan da anlaşılacağı Oracle dır.

NOSQL databaseler konusunda ise durum tam olarak böyle değil yapıları gereği bir çok farklı kategori mevcut. Bu kategorilerden iki-üç tanesi ön plana çıkıyor.

Wide Column Store/Column Family databaseler ,Key/Value ve Document Based veri tutabilen NOSQL çözümleri.

Column Family databaselere örnek  Apache Hbase %100 open source HDFS storage kullanabilen çok hızlı performansa sahip , çökmesi zor  Fault toleransı olan bir NOSQL çözümüdür. Milyarlarca satır Milyonlarca kolondan oluşabilen ve VERSION mantığına sahip Hadoop gibi genel sıradan donanım üzerinde bile inanılmaz iyi olan bir NOSQL çözümüdür.Eğer random ve real time data access istiyorsanız Hbase düşünmeniz gereken bir seçenektir. Hbase bir Cloumn oriented databasedir. Yani amacınız 5 milyar kayıt içerisinde kolon bazında en büyük 50 taneyi bulmaksa doğru yerdesiniz demektir.

UvGsu3AFuXc2AAAAAASUVORK5CYII=

Bu tarz databaselerde Key değeri birçok parçadan oluşabilir,  yani key işte vatandaşlık numarası yada abone numarası demek doğru olmaz.

Key Column Family,rowid,Column qualifer ve timestampdan oluşur.

Value ise bu Keyin döndürdüğü değerdir.

Örnek Tablo yaratma

hbase> create ‘table1’, {NAME => ‘family1’, VERSIONS => 5}

burada table1 tek kolon familysinde ama beş versiyon tutabilecek şekilde yarattım.

hbase> create ‘sosyal’, {NAME => ‘facebook’},{NAME => ‘twitter’}, {NAME => ‘instagram’}

Burada Sosyal isimli tablomda facebook CF si Twitter CFsi ve Instagram CF yarattım. Bu CFleri Design time verdim ama Clumn qualifer olan kolonlarını run time vereceğim.

Bu örnekte ise

hbase> put ‘t1’, ‘r1’, ‘c1’, ‘VALUE’, ts1 Table Row Kolon ve değeri ve opsiyonel olarak timestamp girebilirim.

Bu örnekte ise

hbase> get ‘tableA’, ‘row1’

hbase> get ‘tableA’, ‘row1’, {TIMERANGE => [ts1, ts2]}

hbase> get ‘tableA’, ‘row1’, {COLUMN => ‘kolon1’}

hbase> get ‘tableA’, ‘row1’, {COLUMN => [‘Kolon1’, ‘kolon2’, ‘kolon3’]}

hbase> get ‘tableA’, ‘r1’, {COLUMN => ‘kolon’, TIMESTAMP => timestamp değeri}

gibi son derece kolay kullanabiliriz.

Bir diğer önemli NOSQL kategorisi ise Document store. Bu konuda Mongodb ve Couchbase liderlik yaptığını söyleyebilirim. Genel Json ve Json benzeri bir structureları vardır.

 

 

Couchbase server dağıtık, document ve key/value bazlı bir NoSQL çözümü. Couchbase server kalıcı veriyi memory gücü ile birleştirmiş son derece hızlı veri getirebilen update edebilen bir database. Yazma ve okuma işlemlerinde Key/value apisini kullanalirken bu veriler JSon dokümanı olabilir. Couchbase sağladığı doküman indexlemesi özellikle sorgulamada büyük avantajlar sağlayabilir.

ekran-resmi-2017-01-03-11-25-58

Couchbase serverlerın diğer belli başlı en temel özellikleri hız. Veriyi mümkün olduğunca memory tutan ve kullanan bu sistem bize veri response timelarında milisaniyeleri çok rahatlıkla sağlıyabiliyor. Node ekleme ve Cluster mimarisi olan bu yapıda tutarlılıkda en üst seviyelerde olabiliyor.

Bir başka önemli özelliği ise kolaylığı. Çoğu Nosql database gibi kolay kurulum ve hızlı bir şekilde Nodelar eklenebilen yapısı mevcut. Schemaless yapısı sayesinde veriyi tutmadan yapısını tanımlamanıza gerek yok. Design time ve Run Time yapısı son derece mantıklı ve kolay. Yine Couchbase sorgulaması son derece kolay olan bir database.

Bir başka önemli özelliği ise Elastic yapısı yani Cluster yapmak birçok makinada çalıştırmak büyümek varolan Cluster’a yeni makina eklemek gibi imkanlarımız mevcut.

Özellikle iki ana kavram günümüz IT dünyasında öne çıkıyor bunlardan biri latency biri throughput . Bu iki önemli başlıkta Couchbase serverların low -latency ve high throughput  ihtiyacı olan web ve mobile uygulamalarda inanılmaz iyi performansları olduğunu görüyoruz.

Piyasada bazı önemli Nosql databaseler

Wide Column Store/Column Family modeli

Hadoop/HBASE,Cassandra,AmazonSimpleDB,Flink,Accumulo,Splice,Cloud Data

Document Store Nosql Databaseler

Mongodb,Elastic Search, Couchbase,Marklogic Server,Azure Documentdb

Key Value Store

Amazon DynomoDB,Oracle NOSQL,Azure Table Storage,Riak

Bir başka yazımda diğer NOSQL çözümleri ile detaylı bilgiler paylaşmak üzere. NOSQL çözümleri ile ilgili firmanızda detaylı bir bilgiye ihtiyacınız varsa bana zekeriyab@bilginc.com dan ulaşabilirsiniz.

Bilginc IT Academyde NOSQL çözümleri üzerine birçok farklı eğitimimiz mevcut.

Image

Hortonworks Certified Administrator Exam. HDPCA

Hi Friends,

 

ekran-resmi-2016-12-05-19-52-22

 

Glad to inform you I successfully pass Hortonworks Certified Administrator exam.

HDPCA Certification Overview Hortonworks has redesigned its certification program to create an industry-recognized certification where individuals prove their Hadoop knowledge by performing actual hands-on tasks on a Hortonworks Data Platform (HDP) cluster, as opposed to answering multiple-choice questions. The HDP Certified Administrator (HDPCA) exam is designed for Hadoop system administrators and operators responsible for installing, configuring and supporting an HPD cluster. Purpose of the Exam The purpose of this exam is to provide organizations that use Hadoop with a means of identifying suitably qualified staff to install, configure, secure and troubleshoot a Hortonwork Data Platform cluster using Apache Ambari. Exam Description The exam has five main categories of tasks that involve:

• Installation • Configuration • Troubleshooting • High Availability • Security

 

Oracle Cloud ve Turkcell

Geçtiğimiz Salı günü Oracle’ın Türkiyedeki en büyük etkinliğine bizde TROUG olarak aktif bir şekilde katıldık.

Bu etkinlikle ilgili detaylı bir değerlendirme yazısını sizlerle önümüzdeki günlerde paylaşıyor olacağım.

Bu etkinlikte Oracle’in bulut teknolojisine verdiği önemi bir kez daha görme fırsatı bulduk. Geçtğimiz aylarda açılan Turkcell veri merkezinde Turkcell ve Oracle son derece büyük ve önemli bir ortaklığa imza attılar.

Türkiye’nin verisini Türkiyede tutabilecek alt yapıyı bize sağlayacak olan bu anlaşma son derece önemli.

Cloud platformunun en büyük sorunu tutulan verinin yurtdışındaki serverlarda tutulması ve gerek yasal gerek de güvenlik olarak firmalara kabul edilmesi güç sartlar sunması olarak yansıyordu. Dünyanın en büyük Teknoloji şirketlerinden bir tanesi ilk defa Türkiyede veri tutmayı kabul etmesi diğer firmalarıda tetikleyici ve ülkemizin IT sektörünün gelişmesi açısından son derece önemli görüyorum.

Detaylara aşagıdaki linkten ulaşabilirsiniz.

https://www.oracle.com/tr/corporate/pressrelease/oracle-turkcell-collaboration-launch-national-cloud-data-center-in-turkey-20161108.html

 

 

Etkinlikler

Arkadaşlar selamlar

22 Ekim 2016 Cumartesi günü Spark Day 2016 ‘da Perform Spark queries using Spark SQL and DataFrames konulu bir sunumum olacak. Isteyen arkadaşlarım ücretsiz olarak bu sunumu izleyebilirler.

Tarih Saat : 22 Ekim 2016 saat 17.00

Yer:

Ulusal Yüksek Başarımlı Hesaplama Merkezi

Reşitpaşa, Ulusal Yüksek Başarımlı Hesaplama Merkezi, 34467 Sarıyer

Istanbul

Ekran Resmi 2015-04-29 10.53.12

Kayıt : http://www.meetup.com/Istanbul-Spark-Meetup/events/234470748/?rv=me1

Bir diğer önemli etkinlikde Oracle Digital Day

oracle_headquarters-wide.jpg

Oracle’ın Türkiyedeki en büyük etkinliğinde TROUG olarak birbirinden güzel 6 sunumumuz olacak. Konular ve Konuşmacı detayları

20160330_141538

– Zekeriya Beşiroğlu: Big Data Architecture

– Gökhan Atıl: Connection Pooling

– Gürcan Orhan: Veri ambarı ölüyor mu?

– Talip Hakan Öztürk: Uygulama Performansının kilit noktası: Bind değişkenleri

– Fettullah Çabuk: Data sıkıştırma ve Yedekleme

Bu etkinliği özellikle kaçırmamanızı öneririm.

Kayıt için KAYIT

Bu ay 25 ekimde de Bilginc IT academyde birde ücretli etkinliğimiz olacak.

Krish Krishnan ile beraber olacağız. Sınırlı sayıda katılımcıya açık bu sınıfta yerinizi almanızıda tavsiye ediyorum.

ekran-resmi-2016-10-19-10-11-54

Modern Data Architecture – Big Data V ..

Bugun Big Datayı anlat dediğinizde en çok kullandığımız Vlerden bahsedeceğim. kimine göre 3 V kimene göre 4 V olarak tanımlanabiliyor. Ben bugunku sartlarda 4V tarafında inananlardanım.

Peki Nedir Bu 4 V?

VOLUME: DATA AT REST

Volume datanın hacmi yani bundan 3-5 sene önce Türkiye’de Gb seviyesinde veresi olan şirketler Giga klupleri olabiliyordu ve sayıları son derece azdı. Bugun is baktığımızda Giga artık bir ölçek olmaktan çıkıp sıradanlaştı artık şirketlet Terabytelardan Exabytelara varan verilerle uğraşır oldu. Bu boyutlrdaki veriyi process etmemiz gerekiyor. Danışmanlık yaptığım şirketleri incelediğimizde bu V de genelde kuvvetli olduğumuzu görüyoruz.

VELOCITY: DATA IN MOTION

Hız, Sürat ,Streaming datası artık inanılmaz önemli. Mili saniyelerden saniyelere kadar real time yada near real time günümüzde fark yaratma olacak. Klasik DWH&Data mining modelleri ile bir müşteriye geçen ayki alışverişine göre ,geçen yılki davranışlarına göre tabiki önermeler yapmaya devam edeceğiz ama günümüzde güvenlikten satışa birçok ana başlık Data reste gitmeden daha Motion seviyesindeyken incelenmesi, üzerinde çalışması ile farklı hale gelecek. Bu boyutta çok eksiğimiz olduğunu söylemeliyim.

VARIETY: DATA IN MANY FORMS

Artık datalarımız structured dışında semi-structured, unstructured,text ve multimedia formatlarından oluşuyor. Bir gün içerisinde ürettiğiniz veriyi düşünün bu verinin ne kadarı Structured formatta. Muhtemelen %3-%5 arasında olacaktır. Insanlar gönüllü olarak  önemli bilgileri paylaşıyorlar, cihazlar inanılmaz önemli ve analiz edilebilir veriler üretiyorlar bütün bu verileri standart bir database de tutmak birçok sebebten mantık dışı. Hadoop ve Nosql çözümleri artık fark yaratmak isteyen şirketlerimizin en önemli projeleri haline gelmiş durumda.

VERACITY: DATA IN DOUBT

Bu boyutta verinin içine girince tutarsızlık, eksiklik, kusurluluk, belirsizlik, gizlilik, hile, daha tahmin edilir olmak zorunda ve ona göre yaklaşılmalı.

Bugun Modern Data Architecture

ekran-resmi-2016-10-13-11-13-01

Data In motion kısmında ise Hortonworksun inanılmaz başarılı gördüğüm ilk çıkışı ABDdeki NCA dayanan Apache NIFI teknolojisi Hortonworks Data Flow ile Data Platformun birleşmesi ile yapılırsa klasik Big Data teknolojilerine göre inanılmaz avantajlar sağlayacaktır.

ekran-resmi-2016-10-13-11-20-15

 

Kaynak:hortonworks

 

 

 

 

 

 

Hadoop ortamında hangi SQL ne zaman tercih edilmeli

Merhaba arkadaşlar

 

Big Data , Hadoop ortamında elimizdeki SQL seceneklerini güçlü oldukları alanlar,use caseleri ve essiz yetenekleri anladımda karşılaştırmak istedim.

 

Apache Hive : SQL in HADOOP

Facebook ekibi tarafından yaratılmış , Hadoop ortamında tuttuğumuz datalara standart SQL ile ulaşmamızı sağlayan, raw data file hızlı analiz edebilen, petabyte ölçeğinde bile kendini ispat etmiş , Onemli bütün BI tooları ile entegre çalışan (Tableau,Business Object,excel,Microstrategy vb)

Spark – Spark SQL : In memory with Spark

Hızlı bir şekilde çalışan data access engine dir. Buyuk ölçekte datayı process edebilir. Process tarafında Map Reduce alternatif olabilecek en önemli teknolojidir. Birçok dilde apisi vardır. Iterative in-memory computation için design edilmiştir. Interactive Data mining son derece başarılıdır.

 

Apache Phoenix : Relational Database layer Over HBase

Hbase için SQL çalışma arayüzüdür. Hbase de tuttuğumuz datalara SQL arayüzü sağlar.JDBC driverı son derece kolaydır.Phoenix sayesinde Hbase çok daha iyi hale gelmiştir.

 

 

Project Strengths Use Cases Unique Capabilities
Apache Hive Most comprehensive SQL

Scale

Maturity

ETL Offload

Reporting

Large-scale aggregations

Robust cost-based optimizer

Mature ecosystem (BI, backup, security and replication)

SparkSQL In-memory

Low latency

Exploratory analytics

Dashboards

Language-integrated Query
Apache Phoenix Real-time read / write

Transactions

High concurrency

Dashboards

System-of-engagement

Drill-down / Drill-up

Real-time read / write

 

Hive and Hbase integration, How to use Hive for Hbase table

UvGsu3AFuXc2AAAAAASUVORK5CYII=

Hive ile Hbase database nasil entegre ederim. Hive uzerinden Hbase databasedeki tablomu nasil baglarim

 

set up necessary path and jar configuration

login root user

su –

hbase shell

hbase(main):001:0> list
TABLE

users

 

hbase(main):002:0> describe ‘users’
DESCRIPTION                                          ENABLED
‘users’, {NAME => ‘a’, DATA_BLOCK_ENCODING => ‘NONE true
‘, BLOOMFILTER => ‘ROW’, REPLICATION_SCOPE => ‘0’,
VERSIONS => ‘1’, COMPRESSION => ‘NONE’, MIN_VERSION
S => ‘0’, TTL => ‘2147483647’, KEEP_DELETED_CELLS =
> ‘false’, BLOCKSIZE => ‘65536’, IN_MEMORY => ‘fals
e’, BLOCKCACHE => ‘true’}
1 row(s) in 0.4510 seconds

hbase(main):003:0> get ‘users’,’1′
COLUMN                CELL
a:address            timestamp=1462368843466, value=3084 Cody Ridge Road
a:city               timestamp=1462368843466, value=Loco
a:email              timestamp=1462368843466, value=LarryESchwarz@teleworm.us
a:name               timestamp=1462368843466, value=Larry E Schwarz
a:phone              timestamp=1462368843466, value=580-537-8691
a:state              timestamp=1462368843466, value=OK
a:zipcode            timestamp=1462368843466, value=73442
7 row(s) in 0.0670 seconds

sudo cp /usr/lib/hbase/lib/hbase*.jar /usr/lib/hive/lib

if needed you can set zookeeper conf.

set hbase.zookeeper.com=127.0.0.1;
set hbase.master=127.0.0.1:60000;

connect hive

create external table users(key int,address string,city string,email string,name string,phone string,state string, zipcode string) stored by ‘org.apache.hadoop.hive.hbase.HBaseStorageHandler’ with serdeproperties (‘hbase.columns.mapping’ = ‘:key,a:address,a:city,a:email,a:name,a:phone,a:state,a:zipcode’);

 

hive> describe users
> ;
OK
key                     int                     from deserializer
address                 string                  from deserializer
city                    string                  from deserializer
email                   string                  from deserializer
name                    string                  from deserializer
phone                   string                  from deserializer
state                   string                  from deserializer
zipcode                 string                  from deserializer
Time taken: 3.19 seconds, Fetched: 8 row(s)

hive> select * from users;
OK
1    3084 Cody Ridge Road    Loco    LarryESchwarz@teleworm.us    Larry E Schwarz    580-537-8691    OK    73442
10    3917 Rardin Drive    Santa Clara    TomSDuckett@gustr.com    Tom S Duckett    650-642-6293    CA    95050
11    3406 Ashmor Drive    Kettle River    TheresaRWilliams@dayrep.com    Theresa R Williams    218-273-3304    MN    55757
12    2586 Brighton Circle Road    Wahkon    MildredTBrewer@superrito.com    Mildred T Brewer    320-495-4127    MN    56386
13    4621 Warner Street    Miami    AmandaJWright@cuvox.de    Amanda J Wright305-972-9928    FL    33176
14    4655 Emeral Dreams Drive    Rockford    PamelaRSpinelli@teleworm.us    Pamela R Spinelli    815-226-7633    IL    61108
15    1481 Coolidge Street    Corvallis    GloriaCBewley@einrot.com    Gloria C Bewley    406-961-9478    MT    59828
16    1192 Woodlawn Drive    Sheboygan Falls    GenaDMarshall@dayrep.com    Gena D Marshall    414-596-9264    WI    53085
17    4509 Lang Avenue    Salt Lake City    JamesMWilliams@armyspy.com    James M Williams    435-818-2733    UT    84116
18    2425 Horner Street    Cuyahoga Falls    ChristopherASchneider@fleckens.hu    Christopher A Schneider    330-905-1625    OH    44221
19    90 Willison Street    Golden Valley    SamathaDMcDaniel@dayrep.com    Samatha D McDaniel    763-293-9310    MN    55427
20    3132 Sugarfoot Lane    Indianapolis    KennethLDean@cuvox.de    Kenneth L Dean    765-466-9472    IN    46225
4    4093 Adonais Way    Atlanta    MaryODuprey@jourrapide.com    Mary O Duprey    678-398-6820    GA    30308

 

Oracle Big Data Appliance incelemesi

Tags

, , , , , ,

Geçtiğimiz günlerde Oracle BDA incelemesi için Oracle’ın organize ettiği Oracle yöneticileri ve blog yazarları etkinliğinde bir araya geldik. Oracle’dan arkadaşlarımız Murat Yeşil, Mehmet Gökmen ve Emrah Uysal sorularımız cevapladı.

 

20160330_141538

Öncelikle bu tarz bir etkinlik düzenlenmesi son derece önemli bu etkinliği düzenliyen Deniz Sağçıya ve ITadvisor dergisi ekibine teşekkürlerimi iletiyorum.

Oracle Big data appliance ürününü çıktığı ilk günden beri takip ediyorum. Konu Hakkındaki 2013 senesindeki teknik incelememi aşağıdaki linkten bulabilirsiniz.

https://zekeriyabesiroglu.com/2013/12/17/oracle-big-data-nedir/

ve yine Big data ve SQL analizleri ile alakalı yazılarımı 2014 senesindeki paylaşımım olan

https://zekeriyabesiroglu.com/2014/09/03/big-data-ve-sql-analizleri/ takip edebilirsiniz.

Big data konusunda 2012-2013 senesinden beri yoğun olarak çalışan bir uzman olarak ve Oracle University bünyesindeki Oracle Big Data appliance eğitimlerini Turkiye’de ve Avrupa’da ilk veren uzman olarak yorumum Oracle bu Teknoloji devrimi konusunda konumunu ve yerini bu defa zamanında aldı. Bence Dünyanın en iyi veritabanı makinası olan EXADATA ile hem pazarda hemde teknik anlamda inanılmaz iyi işler çıkaran Oracle Oracle BDA ilede Big Data Treninin en güçlü oyuncularından olacaktır.

Oracle’ın bu konudaki en büyük avantajları dediğim gibi exadata ve Bir big data projesinin hemen her aşamasında olan lider ürünledir.

Çevremdeki bütün dostlarıma ve öğrencilerime Big Data teknolojilerini mutlaka öğrenmeleri gerektiğini zira Big Data teknolojilerin sadece büyük veri ile alakası olmadığını artık hayatımızda yer alan 6 yeni datanın (sentiment,clickstream,log,geolocation,sensor,text) her şirketi ilgilenlendireceğini ve bu datayı iyi analiz edebilen şirketlerin inanılmaz fark yaratacaklarını biliyoruz.

Günümüzde bir bankanın yerinin ne kadar önemi kaldıki? En son ne zaman şubeye gittiniz? Ama eminim hepimiz en teknolojik bankayı biliyoruz ve tercih ediyoruz. Bundan sonrası böyle devam edecek müşterisini iyi analiz eden firmalar büyüyecek.

Arkadaşlar bir big data projesi için önünüzde 3 seçenek var

1-Appliance tercihleri: Burada Makinalarla yazılım hazır bir şekilde alırsınız bir bedel ödersiniz ama anahtar teslim bir çözüm olur. Bu konuda kişisel fikrim Oracle ve Teradatanın güçlü oldukları yönünde.

2- Makinaları siz satın alırsınız neticede Hadoop mantığı ucuz sıradan sayılabilecek donanımlardan oluşmasıdır beraberinde Hortonworks ,Cloudera gibi lider Big data firmalarından birini tercih edersiniz.

Benim kişisel fikrim Hortonworkten yana zira lisans ücreti yok sadece isterseniz support için bedel ödersiniz. Ayrıca Hortonworks Data Flow inanılmaz önemli bir yenilik Apache NIFI ile beraber Hortonwork’ün birkaç adım öne geçtiğini düşünüyorum.

3-Herhangi bir  vendorı tercih etmeden hem makinaları satın alıp hemde tek tek yazılımları kurmak . Bu çözümün zor olduğunu düşünüyorum. Her çözüm için size seytanın avukatlığını yapabilirim.

Big Data ile ilgileniyorsanız bugüne kadar onlarca firmada seminerler, eğitimler ve projeler yapmış bir arkadaşınız olarak size destek olmak isterim bana zekeriyab@bilginc.com veya zekeriyabesiroglu@gmail.com dan ulaşabilirseniz.

13007164_10154122954318739_420303094261128769_n

Teşekkürler.