Image

Hortonworks Certified Administrator Exam. HDPCA

Hi Friends,

 

ekran-resmi-2016-12-05-19-52-22

 

Glad to inform you I successfully pass Hortonworks Certified Administrator exam.

HDPCA Certification Overview Hortonworks has redesigned its certification program to create an industry-recognized certification where individuals prove their Hadoop knowledge by performing actual hands-on tasks on a Hortonworks Data Platform (HDP) cluster, as opposed to answering multiple-choice questions. The HDP Certified Administrator (HDPCA) exam is designed for Hadoop system administrators and operators responsible for installing, configuring and supporting an HPD cluster. Purpose of the Exam The purpose of this exam is to provide organizations that use Hadoop with a means of identifying suitably qualified staff to install, configure, secure and troubleshoot a Hortonwork Data Platform cluster using Apache Ambari. Exam Description The exam has five main categories of tasks that involve:

• Installation • Configuration • Troubleshooting • High Availability • Security

 

Oracle Cloud ve Turkcell

Geçtiğimiz Salı günü Oracle’ın Türkiyedeki en büyük etkinliğine bizde TROUG olarak aktif bir şekilde katıldık.

Bu etkinlikle ilgili detaylı bir değerlendirme yazısını sizlerle önümüzdeki günlerde paylaşıyor olacağım.

Bu etkinlikte Oracle’in bulut teknolojisine verdiği önemi bir kez daha görme fırsatı bulduk. Geçtğimiz aylarda açılan Turkcell veri merkezinde Turkcell ve Oracle son derece büyük ve önemli bir ortaklığa imza attılar.

Türkiye’nin verisini Türkiyede tutabilecek alt yapıyı bize sağlayacak olan bu anlaşma son derece önemli.

Cloud platformunun en büyük sorunu tutulan verinin yurtdışındaki serverlarda tutulması ve gerek yasal gerek de güvenlik olarak firmalara kabul edilmesi güç sartlar sunması olarak yansıyordu. Dünyanın en büyük Teknoloji şirketlerinden bir tanesi ilk defa Türkiyede veri tutmayı kabul etmesi diğer firmalarıda tetikleyici ve ülkemizin IT sektörünün gelişmesi açısından son derece önemli görüyorum.

Detaylara aşagıdaki linkten ulaşabilirsiniz.

https://www.oracle.com/tr/corporate/pressrelease/oracle-turkcell-collaboration-launch-national-cloud-data-center-in-turkey-20161108.html

 

 

Etkinlikler

Arkadaşlar selamlar

22 Ekim 2016 Cumartesi günü Spark Day 2016 ‘da Perform Spark queries using Spark SQL and DataFrames konulu bir sunumum olacak. Isteyen arkadaşlarım ücretsiz olarak bu sunumu izleyebilirler.

Tarih Saat : 22 Ekim 2016 saat 17.00

Yer:

Ulusal Yüksek Başarımlı Hesaplama Merkezi

Reşitpaşa, Ulusal Yüksek Başarımlı Hesaplama Merkezi, 34467 Sarıyer

Istanbul

Ekran Resmi 2015-04-29 10.53.12

Kayıt : http://www.meetup.com/Istanbul-Spark-Meetup/events/234470748/?rv=me1

Bir diğer önemli etkinlikde Oracle Digital Day

oracle_headquarters-wide.jpg

Oracle’ın Türkiyedeki en büyük etkinliğinde TROUG olarak birbirinden güzel 6 sunumumuz olacak. Konular ve Konuşmacı detayları

20160330_141538

– Zekeriya Beşiroğlu: Big Data Architecture

– Gökhan Atıl: Connection Pooling

– Gürcan Orhan: Veri ambarı ölüyor mu?

– Talip Hakan Öztürk: Uygulama Performansının kilit noktası: Bind değişkenleri

– Fettullah Çabuk: Data sıkıştırma ve Yedekleme

Bu etkinliği özellikle kaçırmamanızı öneririm.

Kayıt için KAYIT

Bu ay 25 ekimde de Bilginc IT academyde birde ücretli etkinliğimiz olacak.

Krish Krishnan ile beraber olacağız. Sınırlı sayıda katılımcıya açık bu sınıfta yerinizi almanızıda tavsiye ediyorum.

ekran-resmi-2016-10-19-10-11-54

Modern Data Architecture – Big Data V ..

Bugun Big Datayı anlat dediğinizde en çok kullandığımız Vlerden bahsedeceğim. kimine göre 3 V kimene göre 4 V olarak tanımlanabiliyor. Ben bugunku sartlarda 4V tarafında inananlardanım.

Peki Nedir Bu 4 V?

VOLUME: DATA AT REST

Volume datanın hacmi yani bundan 3-5 sene önce Türkiye’de Gb seviyesinde veresi olan şirketler Giga klupleri olabiliyordu ve sayıları son derece azdı. Bugun is baktığımızda Giga artık bir ölçek olmaktan çıkıp sıradanlaştı artık şirketlet Terabytelardan Exabytelara varan verilerle uğraşır oldu. Bu boyutlrdaki veriyi process etmemiz gerekiyor. Danışmanlık yaptığım şirketleri incelediğimizde bu V de genelde kuvvetli olduğumuzu görüyoruz.

VELOCITY: DATA IN MOTION

Hız, Sürat ,Streaming datası artık inanılmaz önemli. Mili saniyelerden saniyelere kadar real time yada near real time günümüzde fark yaratma olacak. Klasik DWH&Data mining modelleri ile bir müşteriye geçen ayki alışverişine göre ,geçen yılki davranışlarına göre tabiki önermeler yapmaya devam edeceğiz ama günümüzde güvenlikten satışa birçok ana başlık Data reste gitmeden daha Motion seviyesindeyken incelenmesi, üzerinde çalışması ile farklı hale gelecek. Bu boyutta çok eksiğimiz olduğunu söylemeliyim.

VARIETY: DATA IN MANY FORMS

Artık datalarımız structured dışında semi-structured, unstructured,text ve multimedia formatlarından oluşuyor. Bir gün içerisinde ürettiğiniz veriyi düşünün bu verinin ne kadarı Structured formatta. Muhtemelen %3-%5 arasında olacaktır. Insanlar gönüllü olarak  önemli bilgileri paylaşıyorlar, cihazlar inanılmaz önemli ve analiz edilebilir veriler üretiyorlar bütün bu verileri standart bir database de tutmak birçok sebebten mantık dışı. Hadoop ve Nosql çözümleri artık fark yaratmak isteyen şirketlerimizin en önemli projeleri haline gelmiş durumda.

VERACITY: DATA IN DOUBT

Bu boyutta verinin içine girince tutarsızlık, eksiklik, kusurluluk, belirsizlik, gizlilik, hile, daha tahmin edilir olmak zorunda ve ona göre yaklaşılmalı.

Bugun Modern Data Architecture

ekran-resmi-2016-10-13-11-13-01

Data In motion kısmında ise Hortonworksun inanılmaz başarılı gördüğüm ilk çıkışı ABDdeki NCA dayanan Apache NIFI teknolojisi Hortonworks Data Flow ile Data Platformun birleşmesi ile yapılırsa klasik Big Data teknolojilerine göre inanılmaz avantajlar sağlayacaktır.

ekran-resmi-2016-10-13-11-20-15

 

Kaynak:hortonworks

 

 

 

 

 

 

Hadoop ortamında hangi SQL ne zaman tercih edilmeli

Merhaba arkadaşlar

 

Big Data , Hadoop ortamında elimizdeki SQL seceneklerini güçlü oldukları alanlar,use caseleri ve essiz yetenekleri anladımda karşılaştırmak istedim.

 

Apache Hive : SQL in HADOOP

Facebook ekibi tarafından yaratılmış , Hadoop ortamında tuttuğumuz datalara standart SQL ile ulaşmamızı sağlayan, raw data file hızlı analiz edebilen, petabyte ölçeğinde bile kendini ispat etmiş , Onemli bütün BI tooları ile entegre çalışan (Tableau,Business Object,excel,Microstrategy vb)

Spark – Spark SQL : In memory with Spark

Hızlı bir şekilde çalışan data access engine dir. Buyuk ölçekte datayı process edebilir. Process tarafında Map Reduce alternatif olabilecek en önemli teknolojidir. Birçok dilde apisi vardır. Iterative in-memory computation için design edilmiştir. Interactive Data mining son derece başarılıdır.

 

Apache Phoenix : Relational Database layer Over HBase

Hbase için SQL çalışma arayüzüdür. Hbase de tuttuğumuz datalara SQL arayüzü sağlar.JDBC driverı son derece kolaydır.Phoenix sayesinde Hbase çok daha iyi hale gelmiştir.

 

 

Project Strengths Use Cases Unique Capabilities
Apache Hive Most comprehensive SQL

Scale

Maturity

ETL Offload

Reporting

Large-scale aggregations

Robust cost-based optimizer

Mature ecosystem (BI, backup, security and replication)

SparkSQL In-memory

Low latency

Exploratory analytics

Dashboards

Language-integrated Query
Apache Phoenix Real-time read / write

Transactions

High concurrency

Dashboards

System-of-engagement

Drill-down / Drill-up

Real-time read / write

 

Hive and Hbase integration, How to use Hive for Hbase table

UvGsu3AFuXc2AAAAAASUVORK5CYII=

Hive ile Hbase database nasil entegre ederim. Hive uzerinden Hbase databasedeki tablomu nasil baglarim

 

set up necessary path and jar configuration

login root user

su –

hbase shell

hbase(main):001:0> list
TABLE

users

 

hbase(main):002:0> describe ‘users’
DESCRIPTION                                          ENABLED
‘users’, {NAME => ‘a’, DATA_BLOCK_ENCODING => ‘NONE true
‘, BLOOMFILTER => ‘ROW’, REPLICATION_SCOPE => ‘0’,
VERSIONS => ‘1’, COMPRESSION => ‘NONE’, MIN_VERSION
S => ‘0’, TTL => ‘2147483647’, KEEP_DELETED_CELLS =
> ‘false’, BLOCKSIZE => ‘65536’, IN_MEMORY => ‘fals
e’, BLOCKCACHE => ‘true’}
1 row(s) in 0.4510 seconds

hbase(main):003:0> get ‘users’,’1′
COLUMN                CELL
a:address            timestamp=1462368843466, value=3084 Cody Ridge Road
a:city               timestamp=1462368843466, value=Loco
a:email              timestamp=1462368843466, value=LarryESchwarz@teleworm.us
a:name               timestamp=1462368843466, value=Larry E Schwarz
a:phone              timestamp=1462368843466, value=580-537-8691
a:state              timestamp=1462368843466, value=OK
a:zipcode            timestamp=1462368843466, value=73442
7 row(s) in 0.0670 seconds

sudo cp /usr/lib/hbase/lib/hbase*.jar /usr/lib/hive/lib

if needed you can set zookeeper conf.

set hbase.zookeeper.com=127.0.0.1;
set hbase.master=127.0.0.1:60000;

connect hive

create external table users(key int,address string,city string,email string,name string,phone string,state string, zipcode string) stored by ‘org.apache.hadoop.hive.hbase.HBaseStorageHandler’ with serdeproperties (‘hbase.columns.mapping’ = ‘:key,a:address,a:city,a:email,a:name,a:phone,a:state,a:zipcode’);

 

hive> describe users
> ;
OK
key                     int                     from deserializer
address                 string                  from deserializer
city                    string                  from deserializer
email                   string                  from deserializer
name                    string                  from deserializer
phone                   string                  from deserializer
state                   string                  from deserializer
zipcode                 string                  from deserializer
Time taken: 3.19 seconds, Fetched: 8 row(s)

hive> select * from users;
OK
1    3084 Cody Ridge Road    Loco    LarryESchwarz@teleworm.us    Larry E Schwarz    580-537-8691    OK    73442
10    3917 Rardin Drive    Santa Clara    TomSDuckett@gustr.com    Tom S Duckett    650-642-6293    CA    95050
11    3406 Ashmor Drive    Kettle River    TheresaRWilliams@dayrep.com    Theresa R Williams    218-273-3304    MN    55757
12    2586 Brighton Circle Road    Wahkon    MildredTBrewer@superrito.com    Mildred T Brewer    320-495-4127    MN    56386
13    4621 Warner Street    Miami    AmandaJWright@cuvox.de    Amanda J Wright305-972-9928    FL    33176
14    4655 Emeral Dreams Drive    Rockford    PamelaRSpinelli@teleworm.us    Pamela R Spinelli    815-226-7633    IL    61108
15    1481 Coolidge Street    Corvallis    GloriaCBewley@einrot.com    Gloria C Bewley    406-961-9478    MT    59828
16    1192 Woodlawn Drive    Sheboygan Falls    GenaDMarshall@dayrep.com    Gena D Marshall    414-596-9264    WI    53085
17    4509 Lang Avenue    Salt Lake City    JamesMWilliams@armyspy.com    James M Williams    435-818-2733    UT    84116
18    2425 Horner Street    Cuyahoga Falls    ChristopherASchneider@fleckens.hu    Christopher A Schneider    330-905-1625    OH    44221
19    90 Willison Street    Golden Valley    SamathaDMcDaniel@dayrep.com    Samatha D McDaniel    763-293-9310    MN    55427
20    3132 Sugarfoot Lane    Indianapolis    KennethLDean@cuvox.de    Kenneth L Dean    765-466-9472    IN    46225
4    4093 Adonais Way    Atlanta    MaryODuprey@jourrapide.com    Mary O Duprey    678-398-6820    GA    30308

 

Oracle Big Data Appliance incelemesi

Tags

, , , , , ,

Geçtiğimiz günlerde Oracle BDA incelemesi için Oracle’ın organize ettiği Oracle yöneticileri ve blog yazarları etkinliğinde bir araya geldik. Oracle’dan arkadaşlarımız Murat Yeşil, Mehmet Gökmen ve Emrah Uysal sorularımız cevapladı.

 

20160330_141538

Öncelikle bu tarz bir etkinlik düzenlenmesi son derece önemli bu etkinliği düzenliyen Deniz Sağçıya ve ITadvisor dergisi ekibine teşekkürlerimi iletiyorum.

Oracle Big data appliance ürününü çıktığı ilk günden beri takip ediyorum. Konu Hakkındaki 2013 senesindeki teknik incelememi aşağıdaki linkten bulabilirsiniz.

Oracle Big Data Nedir

ve yine Big data ve SQL analizleri ile alakalı yazılarımı 2014 senesindeki paylaşımım olan

https://zekeriyabesiroglu.com/2014/09/03/big-data-ve-sql-analizleri/ takip edebilirsiniz.

Big data konusunda 2012-2013 senesinden beri yoğun olarak çalışan bir uzman olarak ve Oracle University bünyesindeki Oracle Big Data appliance eğitimlerini Turkiye’de ve Avrupa’da ilk veren uzman olarak yorumum Oracle bu Teknoloji devrimi konusunda konumunu ve yerini bu defa zamanında aldı. Bence Dünyanın en iyi veritabanı makinası olan EXADATA ile hem pazarda hemde teknik anlamda inanılmaz iyi işler çıkaran Oracle Oracle BDA ilede Big Data Treninin en güçlü oyuncularından olacaktır.

Oracle’ın bu konudaki en büyük avantajları dediğim gibi exadata ve Bir big data projesinin hemen her aşamasında olan lider ürünledir.

Çevremdeki bütün dostlarıma ve öğrencilerime Big Data teknolojilerini mutlaka öğrenmeleri gerektiğini zira Big Data teknolojilerin sadece büyük veri ile alakası olmadığını artık hayatımızda yer alan 6 yeni datanın (sentiment,clickstream,log,geolocation,sensor,text) her şirketi ilgilenlendireceğini ve bu datayı iyi analiz edebilen şirketlerin inanılmaz fark yaratacaklarını biliyoruz.

Günümüzde bir bankanın yerinin ne kadar önemi kaldıki? En son ne zaman şubeye gittiniz? Ama eminim hepimiz en teknolojik bankayı biliyoruz ve tercih ediyoruz. Bundan sonrası böyle devam edecek müşterisini iyi analiz eden firmalar büyüyecek.

Arkadaşlar bir big data projesi için önünüzde 3 seçenek var

1-Appliance tercihleri: Burada Makinalarla yazılım hazır bir şekilde alırsınız bir bedel ödersiniz ama anahtar teslim bir çözüm olur. Bu konuda kişisel fikrim Oracle ve Teradatanın güçlü oldukları yönünde.

2- Makinaları siz satın alırsınız neticede Hadoop mantığı ucuz sıradan sayılabilecek donanımlardan oluşmasıdır beraberinde Hortonworks ,Cloudera gibi lider Big data firmalarından birini tercih edersiniz.

Benim kişisel fikrim Hortonworkten yana zira lisans ücreti yok sadece isterseniz support için bedel ödersiniz. Ayrıca Hortonworks Data Flow inanılmaz önemli bir yenilik Apache NIFI ile beraber Hortonwork’ün birkaç adım öne geçtiğini düşünüyorum.

3-Herhangi bir  vendorı tercih etmeden hem makinaları satın alıp hemde tek tek yazılımları kurmak . Bu çözümün zor olduğunu düşünüyorum. Her çözüm için size seytanın avukatlığını yapabilirim.

Big Data ile ilgileniyorsanız bugüne kadar onlarca firmada seminerler, eğitimler ve projeler yapmış bir arkadaşınız olarak size destek olmak isterim bana zekeriyab@bilginc.com veya zekeriyabesiroglu@gmail.com dan ulaşabilirseniz.

13007164_10154122954318739_420303094261128769_n

Teşekkürler.

Data Scientist Kimdir? Data Scientist ne iş yapar? Nasıl Öğrenilir

Merhaba arkadaşlar.

Oyun artık değişiyor. Veri her zamankinden daha kıymetli , daha çok ve daha değerli oluyor. Günümüzde insanlar artık gönüllü bir şekilde veri üretiyorlar. Ürettikleri veri doğru analiz edilir ve yorumlarınırsa bundan memnun oluyorlar.

Örneğin ben A marka akıllı saat aldığıma çok memnunum. Bu saatin ürettiği kişisel aktivite ve nabız gibi bilgilerimin toplanması ve bana rapor olarak dönmesini çok beğeniyorum.

Bisiklet kullanmayı hobi haline getirmiş olan bir kişi olarak , gittiğim yerlerde bana kiralık bisiklet önerebilecek şirketler beni kızdırmaz aksine mutlu eder. Günümüzde reklama harcana milyonlarca liraya rağmen asıl reklamın çok daha az kaynakla “Doğru reklamı Doğru kişiye yaparak” başarıya ulaşılabilir.

Firmalar için çıkardığım bir söz var “Müşterisinin DNAsını analiz etmek zorundalar”

Müşterisinin DNAsını analiz etmek isteyen şirketler Data Scientist aramaya başlasınlar.

Bu konuda dünyadan birçok örnek verebilmek mümkün. Obamanın seçim çalışmalarında veriyi et etkili şekilde kullandığını ve ekibinde onlarca Data Scientist barındırdığını biliyoruz. Amerikada özellikle sağlı sektöründe veriyi iyi kullanıp milyonlarca dolar kar eden ve bilime inanılmaz önemli katkısı olan birçok örnek mevcut. Bu olayı kaf dağının arkası olarak görmemek lazım takımındaki oyuncuları iyi analiz eden ve rakip takımı iyi analiz eden bir spor takımının başarılı olacağını hepimiz biliyoruz.

 

Ekran Resmi 2016-01-15 10.43.40

Data scientistler ne iş yaparlar ?

Şirket /Müşteri sorularına cevap bulurlar.

En uygun veriyi bulurlar,ortaya çıkarırlar.

Veriye nasıl ulaşacağımıza karar verirler.

Veriye elde edip temiz bir hale getirirler.

Veriyi detaylı analiz ederler.

Istatistiksel model ve tahmin oluştururlar.

Sorunları bulup çözüm üretirler. Yani Ham veriyi bir şekilde alıp bundan analiz edilebilir akıllı ve optimum avantajlar sunan bir sonuç çıkarırlar.

Ekran Resmi 2016-01-15 11.05.07

Bu konuda dünyada inanılmaz bir ivme yakalanmış durumda, ne yazıkki ülkemizde bu konuda yapılan çalışmalar çok az ve neredeyse aranan eleman bile yok. Harvard tarafından 21st yüzyılın en ilgi çekiçi işi olarak gösterilen bu başlıkta yapılan çalışmalar oldukça az.

 

Harvard

Bu işleri yaparken Data scientistler hangi toolları yada programları kullanabilirler?

Bu konuda benim açımda iki seçenek ön plana çıkıyor R ve Python . Birbirlerine artı eksileri var, daha sonra bir yazımda bu konuyu detaylı değerlendirebilirim.

Yazımı bu bölüme kadar okuduysanız bende artık biraz reklam yapabilirim. 17 yıllık IT tecrübemle son 3 yıldır Big Data ve Data Science konuları üzerine gece gündüz çalışmalar yapıyorum. Bu konuya inanmış arkadaşlarımıza uygulayabileceğimiz bir sertifika programı olacak ve yakın zamanda mümkünse seçilmiş kişilerle Data Scientist olma alanında eğitimler gerçekleştireceğiz.

Daha detaylı bilgiyi

BILGINC IT ACADEMY dan ulaşabilirisiniz.

Bana ulaşmak isterseniz

zekeriyab@bilginc.com

zekeriyabesiroglu@gmail.com

facebook/zekeriyabesiroglu

twitter/zbesiroglu kullanabilirsiniz.

 

 

 

 

 

Data Science Data Formats

Tags

Veri ile uğraşıyorsanız her türlü data tipine hazırlıklı olmalısınız. Data artık birçok farklı formattan gelebiliyor. Datanın formatını doğru belirleyebilmek son derece önemli oluyor. Bu formatları incelemek gerekirse

LOG Files: log fileları büyük projelerde son derece önemli başlık oluyorlar. Log filelarına örnek vermek gerekirse web serverlar, hadoop , sensorler ve cep telefonlarını verebiliriz. Şirketler bu tarz dataları maliyetten dolayı transactional dblerde tutmak istemezler.Bu tarz verilerin ETL processlerini beklemesine gerek yoktur.

Fixed yada Delimited files: Bu tarz formatlar ile çokça karşılasabiliyoruz. Genelde bir satırda bir kayıt bulunan CSV örneğinde formatlardır.

XML tipi: Bu tarz veri tipleri oldukça bilinen kolay bir formattır.

<musteri>

<id>0001</id>

<adı type=”display”>besiroglu, zekeriya</adı>

</müsteri>

JSON formatı:xml alternatif bir formattır diyebiliriz. Json amacı veri alış verişi yaparken daha küçük boyutlarda veri alıp göndermektir.

{

“id”:0001,

“adı”:”zekeriya besiroglu”,

“address”:”sariyer”,

“email”:”zekeriyabesiroglu@gmail.com”,

“phone_numbers”: [

{ “type”:”mobil”, “no”:”111 111 1111″ },

{ “type”:”is”, “n0″:”222 222 22 2222” },

{ “type”:”ev”, “number”:”333 333 3333″ },

],

}

Aynı kodu xml yazsaydım çok daha fazla kod olacaktı.

Binary formatı: Büyük veri için oldukça önemli bir formattır.

Video,Ses,resim pdf ve word processor bile örnek olarak verilebilir.

Sequence Files: Hadoop specific bir formattır. binary key/value pairs den oluşur.Hadoop hive ve pig bu formatı destekler. text based formatlarda iyi performans saglar. Hadoopun yapısı gereği küçük filelarla verimli bir şekilde çalışamaz. Sequence files sayesinden küçük fileları konteynarda toplayıp daha kolay ve performanslı tutabiliriz.

Avro:Data serialization için uygundur. C,C++,C#,java,perl,Python gibi dilleri destekler.Hadoop Mapreduce Avro ile çalısabilir. Avro Flume,Hive ve Pig ile beraberde kullanılabilir.

Spark Day,Istanbul Spark Meetup, TRSUG

Ekran Resmi 2015-04-29 10.53.12

Istanbulda düzenlenecek Spark Istanbul Meetup ‘da bende konuşmacı olarak yer alacağım. Sınırlı sayıda yer için http://www.eventbrite.com/e/spark-day-tickets-19144747455?aff=linkedin2

Wednesday, November 4, 2015 from 9:00 AM to 5:00 PM (EET)

Ajanda
09:00 – 09:30 Kayıt
09:30 – 09:45 Hoş geldiniz

 Şafak Serdar Kapçı, Kora  –   Büyük Veri Mimarı

09:45 – 10:15 Büyük Veride İstatistiğin Önemi
Prof. Seniye Ümit Oktay Fırat, Marmara Üniversitesi Endüstri Mühendisliği Bölümü
10:15 – 10:25 Kısa Ara
10:25 – 11:00 Oracle Büyük Veri Mimarisi 
Kübra Fenerci, Oracle – Büyük Veri Çözümleri Satış Yöneticisi
11:00 – 12:00 Panel    – Nasıl Yapabilirim?  —

Moderatör     Sina Onat    –  Kora

Oracle            Şafak Serdar Kapçı, Kora  –   Büyük Veri Mimarı

Açık Kaynak  Hakan İlter  – Gitti Gidiyor

12:00 – 13:00 Öğle Yemeği
13:00 – 14:00 SparkR
Hossein Falaki, Databricks
14:00 – 14:10 Kısa  Ara
14:10 – 15:00 SparkR
Hossein Falaki, Databricks
15:00 – 15:15 Kahve Arası
15:15 – 16:00 Customer Predictive Analytics 
Yasemin Kaya
16:00 – 16:10 Kısa Ara
16:10 – 17:00 Spark Streaming sayesinde Real Time data Processing and Fraud Detection
Zekeriya Beşiroğlu