:::: MENU ::::

Posts Categorized / Implementation

  • Feb 06 / 2017
  • Comments Off on Seputar Big Data edisi #4
Big Data, Forum Info, Hadoop, Implementation

Seputar Big Data edisi #4

Kumpulan berita, artikel, tutorial dan blog mengenai Big Data yang dikutip dari berbagai site. Berikut ini beberapa hal menarik yang layak untuk dibaca kembali selama terakhir bulan Januari 2017 dan awal Februari 2017

Artikel dan berita
  1. All You Need To Know About Business Models in Digital Transformation
    Dalam istilah yang sangat sederhana, Model Bisnis adalah bagaimana perencaam kita untuk menghasilkan uang dari bisnis yang kita jalani. Sebuah versi halus adalah bagaimana kita menciptakan dan memberikan nilai kepada pelanggan.
  2. Five Ways Data Analytics Will Storm the Stage in 2017
    Telah menjadi sesuatu yang jelas saat ini, bagaimana analisis data mengarahkan pendapatan di bidang e-commerce. Dan perkembangan ini telah memaksa perusahaan e-tailers dan e-commerce untuk mempekerjakan lebih banyak data scientist dalam rangka untuk lebih memahami bagaimana faktor pelanggan berdampak kepada pendapatan dan penjualan.
  3. Stream Processing Myths Debunked
    Stream processing menjadi bagian yang penting dalam sebuah sistem big data, dan semakin banyak aplikasi dan platform yang mendukungnya. Meskipun demikian, masih banyak miskonsepsi yang terjadi terkait dengan stream processing. Dalam artikel ini para ahli dari data Artisans mengupas dan membongkar 6 mitos dan miskonsepsi mengenai stream processing.
  4. How Madden Got So Good at Predicting Super Bowl Winners
    Bagaimana Madden, sebuah videogame, dapat memanfaatkan data untuk memprediksikan pemenang superbowl, perhelatan olahraga terbesar di Amerika, hingga 9 dari 13 kali.

Tutorial dan pengetahuan teknis

  1. The Top Predictive Analytics Pitfalls to Avoid
    Tidak dapat dipungkiri lagi bahwa predictive modelling dan machine learning memberikan kontribusi signifikan untuk bisnis, namun keduanya sangat sensitif terhadap data dan perubahan di dalamnya, sehingga pemilihan teknik yang tepat dan menghindari kesalahan dan perangkap dalam membangun model data sains. Berikut ini beberapa perangkap utama yang perlu dihindari.
  2. How to set up a Twitter bot using R
    Dalam rangka dirilisnya package R ke 10.000 di CRAN, eoda menjalankan akun Twitter yang otomatis menampilkan jumlah package yang tersedia di CRAN sampai package ke 10 ribu tercapai pada tanggal 28 Januari 2017. Artikel ini menjelaskan mengenai cara set up account Twitter tersebut dengan R script.
  3. Journey Science: Combining 18 Data Sources + 1 Billion Interactions to take UX to The Next Level
    Journey Science, yang menyatukan data dari berbagai aktifitas pelanggan, telah menjadi bagian penting bagi industri telekomunikasi. Data tersebut dapat digunakan untuk meningkatkan customer experience dan retention. Dengan menggunakan insight yang didapat dari customer journey analytics, bisnis telekomunikasi dapat mengukur user experience dengan lebih baik, dan membuat keputusan yang tepat untuk meningkatkannya. Mulai dari melakukan tindakan proaktif untuk kepuasan pelanggan, namun juga untuk memprediksi dan mengantisipasi kegagalan yang mungkin terjadi di masa datang. Berikut ini sekilas mengenai bagaimana memanfaatkan customer journey untuk meningkatkan pelayanan dan kepuasan pelanggan.
  4. Performance comparison of different file formats and storage engines in the Hadoop ecosystem
    CERN telah mempublikasikan perbandingan kinerja Apache Avro, Apache Parquet, Apache HBase dan Apache Kudu. Ujicoba ini untuk mengevaluasi efficiency, ingestion performance, analytic scans and random data lookup pada data layanan CERN Hadoop.
  5. Working with UDFs in Apache Spark
    Dalam tulisan ini, akan dijelaskan contoh yang sederhana pembuatan UDF dan UDAF pada Apache Spark menggunakan Python, Java dan Scala
  6. Perfecting Lambda Architecture with Oracle Data Integrator (and Kafka / MapR Streams)
    Artikel yang menjelaskan konfogurasi pada Oracle Data Integrator menggunakan Apache Kafka/MapR Stream untuk menangkap perubahan yang terjadi pada MySQL.

Rilis produk

  1. Google : Using Machine Learning to predict parking difficulty
    Saat ini sebagian besar waktu mengemudi dihabiskan dalam kemacetan atau berputar-putar mencari tempat parkir. Salah satu tujuan produk-produk semacam Google Maps dan Waze adalah membantu pengguna kendaraan untuk mengemudi dengan lebih mudah dan efisien. Namun sampai saat ini, belum ada tool yang khusus mengatasi permasalahan parkir. Minggu lalu, Google merilis fitur baru untuk Android Google Map, yang menawarkan prediksi kondisi perparkiran di sekitar tempat tujuan anda, sehingga anda dapat mengantisipasinya dengan lebih baik. Fitur ini memanfaatkan kombinasi antara crowdsourcing dan machine learning. Saat ini fitur tersebut baru terdapat di di 25 kota di Amerika Serikat saja.
  2. Apache Atlas 0.7.1-incubating released
    Apache Atlas 0.7.1-incubating telah dirilis. Ada banyak perbaikan bugs dan beberapa peningkatan yang bersifat minor.
  3. Cloudera Enterprise 5.10 is Now Available
    Cloudera telah mengumumkan bahwa Cloudera Enterprise 5.10 telah dirilis dengan support GA untuk Apache Kudu, peningkatan kinerja pada cloud, peningkatan pada pengelolaan data dalam Amazon S3, dan banyak lagi.
  4. Announcing The Latest Hortonworks Data Cloud Release !
    Hortonworks mengumumkan rilis baru dari Hortonworks Data Cloud for AWS. Versi 1.11 ini terus mendorong untuk membuat pengolahan data menjadi mudah dan berbiaya efektif dalam komputasi awan.
  5. Announcing Data Collector ver 2.3.0.0
    StreamSets Data Collector versi 2.3.0.0 telah dirilis. Fokus utama dari rilis kali ini adalah mulithreaded pipelines, dukungan terhadap multitable copy, MongoDB change data capture, and HTTP API untuk Elasticsearch
  6. [ANNOUNCE] Apache Bahir 2.0.2
    Apache Bahir, tools yang menyediakan ekstensi dari Apache Spark, merilis versi 2.0.2

 

Contributor :

Tim idbigdata
always connect to collaborate every innovation 🙂
  • Feb 02 / 2017
  • Comments Off on Meetup #12 : Sinergi IDBigData, ITERA dan AIDI
Big Data, Forum Info, Hadoop, Implementation, Komunitas

Meetup #12 : Sinergi IDBigData, ITERA dan AIDI

Menggandeng ITERA (Institut Teknologi Sumatra) dan AIDI (Asosiasi Ilmuwan Data Indonesia, IDBigData menggelar meetup yang pertama di tahun 2017 di kampus ITERA, Lampung.

Meetup dibuka oleh Wakil Rektor I ITERA, Prof. Dr.-Ing. Mitra Djamal, dan menampilkan topik-topik menarik dan terkini yang terkait dengan big data.

Pembicara yang tampil di antaranya adalah Dr. Masayu Leylia Khodra dari ITB, memaparkan mengenai "Text Mining: Peringkasan Teks Bahasa Indonesia". Dalam era di mana pertumbuhan data dan informasi terjadi secara luar biasa, muncul fenomena yang biasa disebut "Information Overload", atau kebanjiran informasi. Orang tidak mungkin lagi membaca semua informasi yang ditemui. Untuk mengatasi hal ini, peringkasan teks menjadi sebuah proses yang penting dan sangat memudahkan bagi manusia untuk menyerap sebanyak mungkin informasi dalam waktu yang terbatas.

Pembicara lain adalah Andry Alamsyah, S.Si, M.Sc, Chairman dari Asosiasi Ilmuwan Data Indonesia (AIDI), menjelaskan mengenai Data Sains dalam perspektif bisnis. Dalam paparannya Andry menyampaikan banyak sekali use case yang menarik yang berkaitan dengan pengolahan data dan opportunity yang dapat digali dan diciptakan dari data.

Tampil pula Ir. Beno K Pradekso MSc.EE, CEO SOLUSI247, membawa tema "Big Data untuk Kedaulatan Data Indonesia", dan tidak ketinggalan pula, Sigit Prasetyo, ketua IDBigData, yang mengajak peserta untuk berkenalan dengan YAVA, distro Hadoop buatan anak bangsa.

Meetup #12 ini dihadiri oleh 89 peserta, yang berasal dari kalangan universitas, pemerintahan dan industri, di antaranya dari ITERA, Unila, Bapeda Lampung dan Bank Lampung.

Selain seminar singkat, di hari ke 2 diadakan pula workshop yang merupakan kerja sama dengan Lab247, yang memberikan kesempatan pada para peserta untuk mendapatkan hands on experience dengan big data tools dan platform seperti Chanthel (distributed document management), dan HGrid (big data engineering).

Untuk rekan-rekan yang belum berkesempatan mengikutinya, rekaman meetup ke 12 ini dapat disaksikan melalui channel IDBigData.

Meetup ke 13 rencananya akan dilaksanakan pada bulan Februari 2017, bekerja sama dengan Universitas Indonesia.

 

Contributor :

Tim idbigdata
always connect to collaborate every innovation 🙂
  • Jan 09 / 2017
  • Comments Off on Seputar Big Data edisi #1
Apache, Big Data, Hadoop, Implementation, IoT, Social Media, Storage, Storm, Uncategorized

Seputar Big Data edisi #1

Seputar Big Data edisi #1

Kumpulan berita, artikel, tutorial dan blog mengenai Big Data yang dikutip dari berbagai site. Berikut ini beberapa hal menarik yang layak untuk dibaca kembali selama minggu pertama bulan Januari 2017.

Artikel dan berita

  1. datafloq.com - 4 Industries Leading the Way in IoT Integration
    Perkembangan Internet of Thing saat ini sangat pesat. Diprediksi dalam waktu dekat, hampir semua perangkat akan terkoneksi satu sama lainnya untuk membuat hidup kita lebih mudah. Ada 4 industri yang diperkirakan akan mengambil manfaat dari IoT.
  2. AWS Big Data Blog - Decreasing Game Churn: How Upopa used ironSource Atom and Amazon ML to Engage Users
    Apakah pernah mengalami kesulitan untuk menjaga loyalitas pengguna supaya tidak meninggalkan game atau aplikasi, setelah bersusah untuk menarik pengguna? Upopa, sebuah studio game yang memanfaatkan machine learning untuk memprediksi perilaku para pengguna game
  3. oreilly.com - 7 AI trends to watch in 2017
    Pada tahun 2016 lalu, banyak terjadi inovasi-inovasi yang luar biasa, banyak investasi di bidang Artificial Intelligent baik pada perusahaan besar maupun startup. Bagaimana dengan tahun 2017?
  4. DZone - Understanding Machine Learning
    Apa sebetulnya Machine Learning? Sebuah penjelasan mengenai machine learning, cara kerjanya dan bagaimana penggunaannya.
  5. Yahoo Finance - Hadoop Big Data Analytics Market Worth 40.69 Billion USD by 2021
    Menurut sebuah laporan market research yang dipublikasikan oleh MarketsandMarkets, pasar big data analytics akan berkembang dari USD 6.71 miliar di tahun 2016 akan menjadi USD 40.69 miliar di tahun 2021.
  6. insideBIGDATA - Loggly Introduces Gamut™ Search for Massive-Scale Log Analysis
    Loggly, perusahaan di balik, kelas enterprise layanan manajemen log berbasis cloud, memperkenalkan Gamut ™ Search, teknologi analisa log yang khusus dirancang untuk merespon langsung pencarian pada data bervolume sangat besar dan dalam periode waktu yang lama.
  7. BrightPlanet - Social Media Data – Instagram Pulls Back on API Access
    Program pemantauan sosial media perlu melakukan perubahan dan terbuka untuk opsi lain pada data open-source. Seperti Instagram melakukan beberapa perubahan akses API, dan akses ke data-data akan dibatasi.

 

Tutorial dan pengetahuan teknis

  1. ZDNet - Hands-on with Azure Data Lake: How to get productive fast
    Microsoft Azure Data Lake saat ini telah tersedia secara umum, tapi apa fungsinya, dan bagaimana cara kerjanya? Artikel berikut merupakan overview seputar tools dan kemampuan layanan, untuk membantu memahami dan meningkatkan produktifitas.
  2. KDnuggets - Internet of Things Tutorial: WSN and RFID – The Forerunners
    Wireless Sensor Network dan RFID adalah kunci utama untuk memahami konsep-konsep yang lebih kompleks dari IoT dan teknologinya.
  3. KDnuggets - Internet of Things Tutorial: WSN and RFID – The Forerunners
    Wireless Sensor Network dan RFID adalah kunci utama untuk memahami konsep-konsep yang lebih kompleks dari IoT dan teknologinya.
  4. IBM Big Data Hub - How to build an all-purpose big data engine with Hadoop and Spark
    Beberapa organisasi sering salah dalam mengoptimalkan penggunakan Hadoop dan Spark bersama-sama, terutama karena masalah kompleksitas. Padalah kombinasi keduanya memungkinkan untuk analisa data yang lebih luas dan mendukung use case yang lebih banyak.
  5. DZone Big Data - Kafka Avro Scala Example
    Tutorial mengenai cara menulis dan membaca pesan dalam format Avro dari/ke Kafka. Bagaimana cara menghasilkan pesan untuk dikodekan menggunakan Avro, cara mengirim pesan tersebut ke Kafka, dan bagaimana untuk mengkonsumsi dengan konsumen dan akhirnya bagaimana untuk dibaca dan digunakan.
  6. IBM Hadoop Dev - Enable Snappy Compression for Improved Performance in Big SQL and Hive
    Ketika loading data ke dalam tabel Parquet, Big SQL akan menggunakan kompresi Snappy secara default. Pada Hive, secara default kompresi tidak diaktifkan, akibatnya tabel bisa secara signifikan menjadi lebih besar
  7. KDnuggets - Generative Adversarial Networks – Hot Topic in Machine Learning
    Apa Generative Adversarial Networks (GAN)? Ilustratif sederhana dari GAN adalah dengan mengambil contoh seperti memprediksi frame berikutnya dalam urutan video atau memprediksi kata berikutnya saat mengetik di google search.
  8. MapR - Monitoring Real-Time Uber Data Using Spark Machine Learning, Streaming, and the Kafka API (Part 2)
    Ini merupakan bagian kedua dari tutorial untuk membuat pemantauan secara realtime mobil-mobil yang digunakan oleh Uber. Tutorial ini menggunakan algoritma k-means pada Apache Spark untuk melakukan pengelompokan data secara realtime
  9. LinkedIn Engineering - Asynchronous Processing and Multithreading in Apache Samza, Part I: Design and Architecture
    Apache Samza terus digunakan oleh LinkedIn dan perusahaan lain untuk melakukan pemrosesan stream. Pada sistem pengolahan stream lainnya menyederhanakan model pemrograman untuk menjadi synchronous and stream/event-based, sedangkan Samza mengembangkan model asynchronous.
  10. MapR - Processing Image Documents on MapR at Scale
    Sebuah tutorial dari MapR untuk pemrosesan gambar dengan menggunakan Apache Spark dan Tesseract OCR engine

 

Rilis produk

  1. GitHub - kafka-utilities
    Sebuah project yang dishare oleh wushujames di hithub.com yang memberikan script untuk menganalisa keadaan klaster Kafka, untuk menentukan broker yang dapat digunakan untuk partisi under-replicated
  2. GitHub - burry
    Burry adalah backup recovery tool yang digunakan untuk membackup dan mengembalikan service pada Zookeepr dan etcd. Tools ini dibuat oleh Michael Hausenblas dan dapat diunduh pada github.com

 

Contributor :

Tim idbigdata
always connect to collaborate every innovation 🙂
  • Oct 19 / 2016
  • Comments Off on [Flashback KBI 2015]
Big Data, Forum Info, Implementation, Komunitas, Uncategorized

[Flashback KBI 2015]

Masa Depan Indonesia : Ekonomi Berdasar Inovasi

Bagaimana masa depan Indonesia? McKinsey memprediksi bahwa perekonomian Indonesia di tahun 2030 bisa masuk ke dalam 7 besar. Namun hal ini hanya akan bisa dicapai jika kita mengubah ekonomi Indonesia dari berbasis sumber daya alam dan jumlah konsumer yang besar, menjadi ekonomi berbasis pengetahuan dan inovasi.

Ada 4 hal yang harus diperhatikan oleh sebuah negara yang ingin mencapai potensi maksimalnya, yaitu:
  • Investasi ke human capital
  • Investasi ke sains dan teknologi
  • Membina dan mendukung inovasi dan kewirausahaan
  • Meminimalkan kemiskinan

Hendaknya pengeluaran untuk pengembangan sains dan teknologi tidak lagi dianggap sebagai biaya, namun sebagai sebuah investasi yang dapat kita nantikan return atau hasilnya. Inovasi sendiri tidak dapat dilepaskan dari kewirausahaan, karena sebuah penemuan yang disebut inovasi adalah yang dapat diterapkan dalam dan diambil manfaatnya. Sedangkan penemuan yang tidak diterapkan hanyalah menjadi sebuah invensi saja.

Hal tersebut disampaikan oleh Prof. Dr. Eng. Ilham Habibie dalam keynote speech pada Konferensi Big Data Indonesia 2015 yang lalu.

Menurut UNESCO, idealnya pengeluaran untuk RnD sebuah negara setidaknya 2% dari PDB. Pengeluaran RnD Indonesia sendiri saat ini baru sekitar 0.1%, yang 80% dari jumlah itu didominasi oleh pemerintah.

Untuk dapat menumbuhkan inovasi, ada beberapa hal yang perlu diperhatikan, yaitu: Inovasi dilakukan dalam sebuah klaster lintas sektoral, yang terdiri dari 4 komponen ABCG (Akademia, Bisnis, Komunitas dan Pemerintah). Idealnya dilakukan dengan co-location Jika tidak memungkinkan, maka perlu dibentuk i-Klaster, atau kelompok kerja virtual yang terhubung dengan komunikasi broadband. Oleh karenanya inovasi + teknologi + konektivitas dibutuhkan untuk menghasilkan pertumbuhan yang cepat Perlu dipertimbangkan adanya insentif pajak untuk kegiatan inovasi

Sinergi antara akademia dan bisnis di Indonesia masih sangat rendah, karena beberapa hal: Dari sisi universitas/akademia riset masih banyak yang berorientasi kepada jenjang karir penelitian, yang targetnya adalah poin dan jumlah publikasi, sehingga kurang terasa dari sisi manfaatnya. Sedangkan dari sisi industri masih banyak kekhawatiran mengenai HAKI, masalah ketepatan waktu dan lain sebagainya, sehingga lebih suka membeli hasil yang sudah jadi dari luar negeri. Hal seperti ini hendaknya mulai dikurangi, jika Indonesia ingin mencapai ekonomi yang berbasis pengetahuan dan inovasi.

Video materi KBI2015 lainnya bisa dilihat di channel idBigdata.

Contributor :


Tim idbigdata
always connect to collaborate every innovation 🙂

  • Aug 09 / 2016
  • Comments Off on Big Data Membantu NYPD Menangani Kejahatan Dengan Lebih Cepat
Big Data, Implementation

Big Data Membantu NYPD Menangani Kejahatan Dengan Lebih Cepat

Pada tanggal 4 Desember 2015, petugas NYPD di kantor polisi 73 New York menerima peringatan pada ponsel mereka dari sistem baru mereka, Shot-spotter : Delapan tembakan telah dilepaskan di dekat 409 Saratoga Avenue di kawasan Bedford-Stuyvesant, Brooklyn.

Kejadian selanjutnya menunjukkan seberapa jauh teknologi dapat berperan dalam membantu tugas polisi.

Polisi menemukan selongsong peluru di atap gedung, kemudian dengan menggunakan ponsel mereka, mengetahui ada sebuah surat perintah penangkapan yang belum dieksekusi untuk seorang wanita di gedung tersebut. Mereka kemudian mendapat surat perintah penggeledahan untuk apartement wanita tersebut melalui ponsel mereka, di mana mereka menemukan dua senjata, dan menangkap tiga orang tersangka.

Para petugas NYPD berhasil melaksanakan tugasnya dengan cepat berkat bantuan sistem kesadaran situasional / Situational Awareness System, yang disebut dengan DAS (Domain Awareness System).

Ide mengenai kesadaran situasional atau situational awareness ini bukanlah sesuatu yang baru. Setiap individu maupun organisasi idealnya dapat menyesuaikan perilaku dan tindakan mereka dengan situasi yang ada. Dan seiring dengan perkembangan teknologi sensor dan sinyal, semakin besar kebutuhan untuk dapat mengumpulkan data dari dunia luar ke dalam sebuah sistem untuk melakukan monitoring dan analisis. Mengetahui apa yang terjadi di domain yang relevan di dunia luar merupakan sesuatu yang penting dan semakin menjadi kebutuhan banyak pihak.

Salah satu pihak yang tampaknya paling berkepentingan terhadap hal ini adalah organisasi di sektor publik. Kepolisian New York (NYPD), pemerintah kota Chicago, dan juga sebuah grup yang terdiri dari instansi-instansi pemerintah di Kanada adalah beberapa pihak yang telah mengembangkan dan memanfaatkan sistem kesadaran situasional. Salah satu hal yang dipelajari dari pengalaman mereka membangun sistem SA adalah, semakin terarah target sistemnya, semakin baik hasilnya.

MASAS, atau Multi-Agency Situational Awareness System, yang dikelola oleh Canadian Public Safety Operations Organizations (CanOps), dimaksudkan untuk memonitor dan menampilkan informasi yang relevan dengan keamanan publik. MASAS mencakup informasi mengenai kebakaran, gempa bumi, cuaca buruk, masalah lalulintas, kerusakan jalan, kerumunan massa, lokasi dan status shelter, perbatasan, dan lain sebagainya.

Cakupan luas dari MASAS ini sebetulnya bertujuan baik, namun hal ini sepertinya membatasi value dari sistemnya sendiri. Misalnya seperti disebutkan pada website mereka, karena instansi-instansi enggan untuk berbagi informasi sensitif dengan instansi lain, maka informasi yang di-share adalah informasi yang tidak sensitif (yang akhirnya juga tidak terlalu bermanfaat).

Chicago termasuk kota pertama yang mengadopsi sistem SA pada tahun 2012. Sistem yang dinamakan WindyGrid ini adalah sistem informasi geografis yang menyajikan gambaran terpadu dari pengoperasian kota di atas peta Chicago, yang memberikan akses ke seluruh data spasial kota, baik secara historikal maupun real time.

WindyGrid mencakup informasi mengenai layanan panggilan 911 dan 311, lokasi aset transit dan mobile, status bangunan, tweets berdasarkan lokasi geografis, dan lain sebagainya. Sistem ini hanya berfokus pada data spasial, sehingga cakupannya lebih sempit daripada sistem di Kanada. Sebenarnya yang lebih dibutuhkan oleh Chicago adalah sistem yang berfokus pada penangangan kejahatan. Karena WindyGrid dibangun atas prakarsa CIO kota Chicago, maka sistem ini cenderung didasari oleh kebutuhan efisiensi informasi dibandingkan prioritas strategis.

Pencegahan kejahatan dan terorisme menjadi prioritas dari sistem DAS yang dimiliki NYPD. Sistem ini pada awalnya dikembangkan oleh biro kontraterorisme, dan saat ini digunakan secara luas dalam tugas harian kepolisian. DAS mengumpulkan dan menganalisa data dari berbagai sensor -termasuk 9000 kamera CCTV, 500 kamera pembaca plat nomor, 600 sensor radiasi dan kimia, dan jaringan detektor untuk mendeteksi suara tembakan yang menjangkau 24 mil persegi, dan 54 juta panggilan ke 911 dari masyarakat. Sistem ini juga dapat menarik data dari arsip kejahatan NYPD, termasuk 100 juta surat pemanggilan.

Project DAS dimulai pada tahun 2008 dan terus dikembangkan hingga saat ini. Pada tahun 2010 ditambahkan fungsi analytics, dan pada 2011 ditambahkan kemampuan pengenalan pola. Pada tahun 2014 mulai dikembangkan fungsi “predictive policing” , dan pada tahun 2015 petugas kepolisian dapat memperoleh informasi 911 secara real-time.

Antarmuka utama dengan sistem adalah smartphone, yang saat ini digunakan oleh 35.000 anggota NYPD. Lebih dari 10.000 polisi menggunakan DAS setiap harinya. Sistem ini disebut sebagai ‘keajaiban teknologi’, yang lahir dari kepemimpinan dan prioritas yang kuat.

Terfokusnya SA yang dimiliki NYPD merupakan kunci kesuksesan sistem ini. Tingkat kejahatan di kota New York semakin menurun (saat ini di bawah rata-rata nasional US), dan tingkat penyelesaian kasus pembunuhan meningkat. Tentunya banyak faktor yang menjadi penyebabnya, termasuk di antaranya penggunaan DAS ini, namun salah satu yang paling penting adalah budaya kepolisian yang mengedepankan bukti (evidenced based policing) yang menjadi karakteristik NYPD.

Dari beberapa pengalaman penerapan sistem berbasis kesadaran situasional ini terlihat jelas nilai strategis dari penerapan sebuah sistem berbasis kesadaran situasional. Teknologi yang ada saat ini sangat memungkinkan untuk mengetahui apa yang terjadi di luar, yang mungkin mempengaruhi kesuksesan sebuah organisasi atau perusahaan. Namun mengingat keluasan dan kompleksitas dunia luar itu sendiri, sebaiknya sistem SA dibangun dengan fokus yang jelas, misalnya pada customer, kompetitor, atau regulator. Pada akhirnya yang dituju tentunya adalah pemahaman terhadap situasi secara menyeluruh, namun mulailah dari sesuatu yang spesifik.

Diterjemahkan dari : http://fortune.com/2016/07/17/big-data-nypd-situational-awareness/

Contributor :


M. Urfah
Penyuka kopi dan pasta (bukan copy paste) yang sangat hobi makan nasi goreng. Telah berkecimpung di bidang data processing dan data warehousing selama 12 tahun. Salah satu obsesi yang belum terpenuhi saat ini adalah menjadi kontributor aktif di forum idBigdata.

  • Jun 27 / 2016
  • Comments Off on Twitter Open Source-kan Heron, Framework Real Time Stream Processing
Big Data, Forum Info, Implementation, IoT

Twitter Open Source-kan Heron, Framework Real Time Stream Processing

Satu lagi framework yang bergabung ke dalam ekosistem Big Data Open Source. Meramaikan percaturan dalam pemrosesan Big Data, khususnya real-time streaming data processing, bulan Mei lalu Twitter mengumumkan bahwa mereka meng-open-source-kan Heron, sistem real-time stream processing yang mereka kembangkan untuk menggantikan Apache Storm.

Setelah sebelumnya mengumumkan bahwa mereka mengganti framework pemrosesan real-time streaming mereka dari Storm ke Heron, dan menerbitkan paper mengenai arsitekturnya, baru setahun kemudian publik dapat ikut menggunakan dan mengembangkannya.

Alasan Twitter mengembangkan Heron pada awalnya adalah karena beberapa kesulitan yang mereka hadapi ketika menggunakan Storm, terutama ketika sistem yang mereka deploy sudah sangat besar. Beberapa kesulitan yang dihadapi di antaranya adalah kesulitan dalam hal profiling dan reasoning mengenai Storm worker di tingkat data dan tingkat topologi, alokasi resource yang bersifat statis, tidak adanya dukungan back-pressure, dan lain sebagainya.

Mengapa saat itu Twitter tidak beralih ke Apache Spark streaming atau Apache Flink misalnya, dan justru memutuskan untuk mengembangkan sendiri sistemnya secara internal? Alasan utamanya adalah peralihan framework tersebut akan menyebabkan mereka harus menulis ulang banyak sekali code dari sistem mereka yang sudah sangat besar. Sebab, sebagai pihak yang mengembangkan Storm, Twitter adalah pengguna Apache Storm yang paling lama, jauh sebelum Storm menjadi open source.

Heron didesain sebagai sebuah sistem yang memiliki backward compatibility dengan Apache Storm. Hal ini merupakan sebuah keputusan yang strategis, bukan saja untuk Twitter sendiri, namun juga untuk pengguna yang sudah mengimplementasikan Apache Storm, mereka dapat beralih ke Heron dengan relatif mudah.

Paradigma pemrosesan Heron sangat mirip dengan Apache Storm, di mana dasarnya adalah DAG (Direct Acyclic Diagram) yang disebut topology, dengan komponennya berupa spout dan bolt.

Heron dibangun dengan perubahan mendasar dalam arsitektur streamingnya, dari sistem berbasis thread, menjadi sebuah sistem berbasis proses. Heron juga didesain untuk deployment dalam cluster dengan mengintegrasikannya dengan scheduler open source yang powerful seperti Apache Mesos, Apache Aurora, Apache REEF atau Slurm.

Banyak yang dijanjikan dengan Heron, seperti misalnya 2-5 kali efisiensi, kemudahan dan stabilitas, dan lain sebagainya. Salah satu kelebihan utama Heron adalah sudah dibuktikan dalam skala yang besar di Twitter sendiri, dan kompatibilitasnya dengan Storm sebagai framework yang sudah banyak diimplementasi sebelumnya. Namun apakah masyarakat Big Data akan dengan serta merta mengadopsinya sebagai framework pilihan mereka, masih harus kita lihat bagaimana perkembangannya ke depan. Karena saat ini banyak sekali framework open source untuk pemrosesan streaming yang ada dan berkompetisi untuk menjadi yang terdepan, seperti misalnya Apache Spark, Apache Flink, Apache Samza, Apache Apex, atau bahkan Apache Storm sendiri yang juga telah me-release versi 1.0 dengan banyak perubahan dan perbaikan.

Baca juga : APACHE STORM 1.0 PENINGKATAN PERFORMA DAN SARAT FITUR BARU

Contributor :


M. Urfah
Penyuka kopi dan pasta (bukan copy paste) yang sangat hobi makan nasi goreng. Telah berkecimpung di bidang data processing dan data warehousing selama 12 tahun. Salah satu obsesi yang belum terpenuhi saat ini adalah menjadi kontributor aktif di forum idBigdata.

  • Mar 15 / 2016
  • Comments Off on Challenges For The Biomedical Industry In Terms Of Big Data
Big Data, Forum Info, Implementation, IoT

Challenges For The Biomedical Industry In Terms Of Big Data

Tantangan Industri Biomedis untuk Big Data

Lahirnya Next-Generation Sequencing (NGS) berakibat pada pertumbuhan data genomic secara eksponensial. NGS berhasil memangkas waktu dan biaya yang dibutuhkan untuk melakukan sequencing sebuah genom secara drastis. Biaya sequencing turun secara signifikan dari sekitar US$100M pada tahun 2001 menjadi sekitar US$1000 di tahun 2015. Sebuah studi kasus diagnostik genom http://www.genomemedicine.com/content/7/1/100?utm_source=datafloq&utm_medium=ref&utm_campaign=datafloq pada tahun 2015 menunjukkan bahwa waktu yang diperlukan untuk melakukan whole genome sequencing, analisis dan diagnosis penyakit genetik pada bayi yang sakit berat adalah 26 jam.

8-challenge_04.png

Apakah perpaduan teknologi antara industri biomedis dan big data akan dapat mendukung perkembangan data genomics di masa datang? Berikut adalah beberapa hambatan dan tantangan yang dihadapi dalam perkembangan pemanfaatan data genomics :

  • Meskipun biaya sequencing dan storage sudah relatif rendah, namun biaya komputasi terutama dari sisi infrastruktur masih relatif tinggi. Cloud computing dapat menjadi solusi terhadap kebutuhan komputasi, namun transfer data genomics yang sangat besar dari mesin sequencing ke cloud dapat menjadi tantangan tersendiri.
  • Privasi data genomics juga menjadi sebuah isu, karena penggunaan dan penyebaran (sharing) data tersebut tidak dapat diprediksi. Meskipun data dikumpulkan secara anonimus, masih ada kemungkinan re-identifikasi sehingga menjadi peluang timbulnya pelanggaran privasi.
  • Interoperabilitas antar database genomics maupun dengan sistem medis lainnya (misalnya Electronic Medical Records atau EMR) menjadi tantangan lain yang harus diatasi agar proyek-proyek kolaborasi semacam 100.000 Genome Project (http://www.genomicsengland.co.uk/the-100000-genomes-project/?utm_source=datafloq&utm_medium=ref&utm_campaign=datafloq) dapat memberikan manfaat yang sebesar-besarnya bagi masyarakat maupun pasien yang membutuhkan.
  • Nilai tambah yang ditawarkan oleh bidang translational genomics kepada industri biomedis mungkin tidak langsung terlihat hasilnya. Biaya yang harus dikeluarkan oleh sebuah organisasi untuk menyimpan dan mengolah data genomics mungkin tidak bisa memberikan keuntungan finansial dalam jangka pendek. Hal ini dapat menyurutkan keinginan untuk berinvestasi di bidang ini. Namun, pengetahuan yang didapat dari proyek-proyek yang bersifat riset dapat memberi manfaat yang sangat besar bagi masyarakat maupun bagi pengembangan produk mereka sendiri. Penyedia solusi big data yang mendukung platform big data di bidang genomics akan dapat memperoleh keuntungan dengan menyediakan jasa penyimpanan, pemrosesan dan analisis data.

Perusahaan seperti AWS, Oracle dan Google menempatkan diri sebagai pemain kunci dalam penyediaan infrastruktur komputasional di bidang biomedis dengan menyediakan infrastruktur bagi penyimpanan dan analisis data genomics. Mereka menyadari potensi nilai yang didapat dari penyediaan platform untuk riset genomics.

Dengan semakin menurunnya biaya sequencing dan dengan dimungkinkannya sequencing dalam skala besar, kita dapat menyaksikan pergeseran dari pengobatan reaksioner (mengobati setelah timbulnya penyakit) menjadi pengobatan prediktif dan proaktif. Database genomics yang besar memungkinkan dilakukannya riset untuk lebih memahami dasar-dasar genetik pada bermacam-macam penyakit.

Pengetahuan ini akan mendorong pengembangan obat-obatan dan terapi yang lebih terarah dan bersifat preventif, dan juga memungkinkan pengembangan alat interpretasi genomics secara individual untuk keperluan konseling bagi individu untuk mencegah kemungkinan munculnya penyakit atau kondisi yang berkaitan dengan kecenderungan genetik.

Contributor :

Tim idbigdata
always connect to collaborate every innovation 🙂
  • Mar 07 / 2016
  • Comments Off on Genomics : The Next Big Thing in Big Data
Big Data, Implementation

Genomics : The Next Big Thing in Big Data

Apa itu Genomics?

Genomics adalah bidang yang mempelajari genome, untuk memahami bagaimana suatu organisme bekerja, dan apa akibat dari interaksi antar gen serta pengaruh lingkungan terhadapnya. Sedangkan genome adalah materi genetik yang menjadi cetak biru atau rancangan dari suatu mahluk hidup. Informasi ini diwariskan secara turun temurun dan tersimpan dalam DNA, atau pada beberapa jenis virus, dalam RNA.

Ukuran genome dinyatakan dalam bp atau base pair, yaitu jumlah pasangan nukleotida dalam DNA.

Manusia memiliki sekitar 3 miliar bp dalam genome-nya. Sebetulnya manusia genome manusia 99.9% mirip. Namun perbedaan yang hanya 0.1% tersebut telah menghasilkan keragaman yang sangat besar pada penampilan maupun kondisi fisik seseorang.

Apa Pentingnya Genomics?

Saat ini genomics memiliki peran yang besar dalam berbagai bidang, mulai dari kesehatan, pertanian, lingkungan, industri maupun perkembangan ilmu pengetahuan. Dengan mempelajari gen, manusia dapat menemukan solusi dari banyak permasalahan mendasar di banyak bidang kehidupan.

Misalnya, di bidang medis, genomics dapat membantu dalam meningkatkan kualitas diagnosis penyakit, mengidentifikasi predisposisi terhadap penyakit tertentu (misalnya diabetes tipe 2, penyakit huntington, dll), mendeteksi virus dan bakteri penyebab penyakit, mengembangkan obat yang disesuaikan dengan informasi genetik seseorang (disebut juga ‘personalized medicine’, misalnya penggunaan penanda genetik untuk membantu menentukan dosis War¬farin, obat anti penggumapalan darah, menentukan jenis dan dosis obat untuk kanker, dll), atau memantau pengaruh gaya hidup dan lingkungan terhadap genome dan kesehatan manusia.

Di bidang lingkungan, genomics membantu untuk menemukan sumber-sumber energi yang lebih sustainable seperti biofuels, mengendalikan polusi, melakukan dekontaminasi daerah yang terkena limbah (disebut juga bioremediation, seperti misalnya mikroba yang digunakan untuk membantu membersihkan tumpahan minyak di teluk Meksiko), memantau keragaman hayati dan identifikasi spesies baru.

Dalam bidang pertanian genomics dapat digunakan untuk mengembangkan tanaman yang lebih tahan terhadap serangan hama, penyakit, dan lingkungan, dapat juga digunakan untuk membantu mengidentifikasi hama, mengembangkan tanaman pangan yang lebih kaya kandungan gizi, ataupun mengembangkan ternak yang lebih berkualitas dan tahan terhadap serangan penyakit, dan lain sebagainya.

Teknologi di Balik Perkembangan Genomics

Peran genomics yang besar tersebut dimungkinkan dengan berkembangnya teknologi dalam bidang pemetaan gen dan pengolahan data.

Next Generation Sequencing

Dengan hadirnya teknologi yang disebut dengan Next Generation Sequencing, maka biaya untuk melakukan pemetaan genetik juga mengalami penurunan yang sangat ekstrim.

genomics_pt1_02.png

Jika sebelumnya biaya untuk melakukan sequencing atau pemetaan terhadap genome manusia adalah sebesar 100 juta US$ (dana yang digunakan pada Human Genome Project, yang di-launch di tahun 1986 dan selesai pada 2003), maka saat ini biaya pemetaan genome manusia adalah sekitar 1000 US$.

Penurunan biaya dan waktu pemrosesan menjadikan pemetaan genome menjadi sebuah proses yang terjangkau, sehingga banyak pihak dapat turut memanfaatkan dan mengembangkannya. Sebagai akibatnya, genomics pun menjadi sebuah bidang yang mengalami perkembangan yang sangat cepat pada dekade terakhir ini.

Big Data

Pemetaan dan analisis genome menghasilkan dan membutuhkan data yang sangat besar. Data hasil sequencing dapat mencapai 130 GB lebih per genome. Dengan semakin banyaknya genome yang dipetakan dan dianalisis, terjadilah ledakan di sisi data yang dihasilkan.

Tantangan selanjutnya adalah bagaimana data yang sedemikian besar dapat diproses dan dianalisis, sehingga semakin banyak penelitian maupun pemanfaatan data genomics dapat dilakukan.

Salah satu pendekatannya adalah dengan cara meningkatkan kecepatan prosesor. Teknologi seperti GPU ataupun FPGA (Field Programmable Gate Arrays) menjadi beberapa alternatif dalam hal ini. Solusi lain adalah penggunaan cloud computing, di mana data yang akan digunakan diproses di cloud, sehingga para peneliti tidak perlu membangun sendiri infrastruktur yang mereka gunakan. Namun permasalahannya adalah ketika diperlukan analisis seperti variant calling untuk mendeteksi mutasi gen, sejumlah data yang sangat besar perlu diakses dan dipindahkan ke environment analisis yang sesuai. Transfer data yang sangat besar melalui jaringan menjadi sebuah permasalahan berikutnya.

Dengan kehadiran big data, khususnya Hadoop sebagai solusi komputasi dan penyimpanan data terdistribusi, para peneliti memiliki alternatif baru yang lebih terjangkau. Hadoop menjadi alternatif bagi penyimpanan dan pemrosesan data genome dengan memberikan solusi berupa : biaya yang lebih terjangkau dengan pemanfaatan commodity hardware, peningkatan kapasitas komputasi dengan penggunaan banyak mesin secara paralel, mengurangi data movement dengan melakukan komputasi secara lokal, di mana data tersebut disimpan secara fisik.

Di samping itu, saat ini telah banyak teknologi yang dikembangkan di atas ataupun melengkapi Hadoop ekosistem, seperti misalnya Hive, Pig, Mahout, Yarn, dan lain sebagainya. Terlebih lagi setelah munculnya Spark sebagai platform pemrosesan in memory secara terdistribusi, big data menjadi sebuah alternatif solusi yang tidak dapat diabaikan lagi.

Salah satu pemanfaatan teknologi big data dalam bidang genomics ini adalah ADAM, yaitu platform analisis genomik dengan format file khusus. Dibangun menggunakan Apache Avro, Apache Spark dan Parquet. ADAM pada awalnya dikembangkan oleh Universitas Berkeley dan berlisensi Apache 2.

Referensi :

http://www.whygenomics.ca/why-should-i-care

http://blogs.uw.edu/ngopal/why-genomics/

https://blog.pivotal.io/data-science-pivotal/features/re-architecting-genomics-pipelines-to-handle-the-rising-wave-of-data

Contributor :

M. Urfah
Penyuka kopi dan pasta (bukan copy paste) yang sangat hobi makan nasi goreng. Telah berkecimpung di bidang data processing dan data warehousing selama 12 tahun. Salah satu obsesi yang belum terpenuhi saat ini adalah menjadi kontributor aktif di forum idBigdata.
  • Feb 23 / 2016
  • Comments Off on Big Data sebagai alat bantu Pengeboran Minyak dan Gas
Big Data, Forum Info, Implementation, IoT

Big Data sebagai alat bantu Pengeboran Minyak dan Gas

Industri minyak dan gas kini tengah menghadapi tantangan berat, seperti meningkatnya biaya produksi dan gejolak politik internasional. Hal tersebut mempersulit usaha ekplorasi dan pengeboran cadangan minyak baru.

Beberapa tahun belakangan ini Royal Dutch Shell mengembangkan ide untuk membangun ladang minyak yang didukung oleh data atau disebut “data-driven oilfield” dalam usaha untuk mengurangi biaya pengeboran yang merupakan biaya utama industri migas.

Sejak beberapa tahun ini Shell sudah mulai memasang kabel serat optik dalam sumur minyak. Pada kabel serat optik ini terpasang sensor-sensor yang mengukur segala sesuatu dalam sumur. Dengan data-data dari sensor tersebut, Shell dapat melakukan analisa yang lebih akurat mengenai keadaan sumur minyak atau seberapa besar gas yang masih tersisa.

Sensor super sensitif dalam kabel serat optik membantu Shell menemukan minyak tambahan di dalam sumur yang diduga telah kering. Sensor-sensor yang buat oleh Hewlett-Packard ini menghasilkan data dalam jumlah yang sangat besar dan ditransfer ke dalam sistem komputasi awan Amazon Virtual Private Cloud dengan menggunakan Hadoop. Sejak pertama kali dimulai mereka telah mengumpulkan 46 petabyte data dan pada tes pertama yang mereka lakukan di salah satu sumur minyak menghasilkan 1 petabyte informasi.

Shell juga bekerja sama dengan IBM dan DreamWorks Hollywood untuk memvisualisasikan data-data yang didapat oleh sensor. Semua data yang diterima dari sensor seismik dianalisis oleh sistem kecerdasan buatan yang dikembangkan oleh Shell dan dirender menjadi peta 3D dan 4D dari reservoir minyak. Meskipun analisis dilakukan dalam komputasi awan, visualisasi segera tersedia bagi awak yang bekerja di pabrik lokal.

Melihat hasil yang dicapai mereka berkeinginan memasang sensor untuk sekitar 10.000 sumur minyak, dengan perkiraan 10 Exabytes data, atau sekitar 10 hari dari semua data yang dihasilkan oleh internet.

Sumber :

https://datafloq.com/read/shell-drills-deep-with-big-data/508

http://www.oilreviewmiddleeast.com/information-technology/big-data-is-the-new-drilling-tool-for-shell

http://www.smartdatacollective.com/bernardmarr/358203/big-data-big-oil-amazing-ways-shell-uses-analytics-drive-business-success/508

Contributor :


Tim idbigdata
always connect to collaborate every innovation 🙂

  • Feb 18 / 2016
  • Comments Off on Big Data dan Hidroponik
Big Data, Forum Info, Implementation, Storage

Big Data dan Hidroponik

Big data dan hidroponik, mungkin terdengar seperti perpaduan yang kurang cocok. Memang tidak dapat dipungkiri bahwa pengaruh big data sudah demikian meluas, tak terkecuali pada sektor yang agak spesifik seperti hidroponik. Sistem otomasi pada pertanian dengan menggunakan teknik hidroponik tengah berkembang dengan pesat di dunia, dari Jepang, Cina, Inggris dan Uni Eropa serta Amerika Serikat.

Manfaat Bercocok Tanam Dengan Hidroponik

Teknik hidroponik dianggap sebagai suatu teknik produksi pangan yang sangat efisien saat ini. Banyak keunggulan dari teknik ini, misalnya penggunaan lahan yang lebih sedikit dan produksi pangan lebih banyak. Air yang digunakan pun dapat diolah dan dimanfaatkan kembali. Biaya pengangkutan dapat ditekan karena teknik ini sangat cocok diimplementasikan di wilayah perkotaan dengan jumlah populasi yang tinggi.

Bagaimana Big Data dan otomasi bekerja dengan hidroponik

Di Jepang, Fujitsu telah mengembangkan sebuah layanan komputasi awan (cloud platform services) dengan nama Akisai. Sistem yang diluncurkan pada tahun 2012 ini menganalisa data-data yang didapatkan dari berbagai sensor yg di tempatkan di sekitar rumah kaca (greenhouse). Dengan informasi ini, seluruh perangkat pendukung seperti kipas ventilasi udara, mesin pemanas, dan sistem pengairan dikontrol secara otomatis. Melalui big data cloud service, sistem ini mampu mengumpulkan banyak data yang dapat dianalisa untuk menghasilkan kualitas pangan yang lebih baik.

Di Amerika Serikat ada Freight Farms, sebuah perusahaan yang membuat sistem pertanian hidroponik menggunakan kontainer bekas dengan menerapkan teknologi dan otomasi pertanian. Mereka mengumpulkan data dari berbagai komponen utama pertanian seperti udara, air, suhu dan pertumbuhan tanaman untuk mengelola dan memonitor pertanian.

Dengan data yang dikumpulkan tersebut mereka membuat sebuah program custom elearning development, sehingga para penggunanya dapat mempelajari cara terbaik untuk bercocok tanam dengan Freight Farms. Menurut Brad McNamara, co founder dari Freight Farms, melalui sistem elearning yang dibangun ini, orang yg saat ini bergabung dengan Freight Farms akan memiliki pengetahuan yang jauh lebih baik, karena telah mendapatkan pengetahuan dari data yang dikumpulkan dari pengguna-pengguna sebelumnya. Dengan jaringan yang terdiri dari para petani Freight Farms, mereka mendapatkan banyak informasi yang dapat diterapkan.

Demikian juga di Cina, Alesca, sebuah startup yang mengubah kontainer bekas menjadi sebuah solusi jaringan pertanian hidroponik yang menggunakan sistem otomatisasi open-source dan analisa big data. Alesca mendesain dan membangun sistem pertanian multi-format dan menggabungkannya dengan penginderaan cerdas (smart sensing) dan aplikasi yang terhubung komputasi awan. Sistem connected farm ini menjadikan jaringan pertanian Alseca sebagai sebuah jaringan produksi pangan kota yang terdistribusi (city distributed food production system).

Penggunaan kontainer sebagai area tanam memungkinkan untuk membuat microclimate atau kondisi lingkungan yang paling ideal untuk berbagai jenis tanaman yang ditanam. Hasil tersebut dicapai dengan menggunakan sistem otomasi canggih, penyinaran menggunakan LED yang optimal dan komponen software terkini untuk membangun lingkungan yang ideal untuk masing-masing jenis tanaman. Tanaman dipantau oleh sensor yang melaporkan mengenai kesehatan, pertumbuhan, dan kecukupan nutrisi serta keseluruhan informasi mengenai lingkungan yang membutuhkan penyesuaian untuk mencapai kondisi pertumbuhan yang paling ideal. Alesca yakin bahwa ini merupakan trend masa depan untuk produksi pangan lokal berskala besar di kota-kota padat yang disebut local concept zero-mile food.

Masalah Yang Datang dengan Otomasi Pertanian

Hambatan terbesar untuk keberhasilan jenis otomasi produksi pangan ini adalah dari segi biaya produksi pangan hidroponik. Peningkatan skala produksi dan tuntutan untuk menjaga efektifitas dan nilai ekonomis mengingatkan kita pada tantangan yang dihadapi di masa sebelumnya. Jika sebelumnya hambatan yang dihadapi adalah dari besarnya jumlah tenaga kerja yang dibutuhkan, maka tantangan saat ini adalah pada kebutuhan listrik yang besar, dan pengeluaran untuk sistem pemupukan, pendingin, pemanas, dan pencahayaan yang tidak sedikit.

Namun demikian, berkat adanya software baru dan otomasi pada kebun hidroponik, banyak perubahan yang terjadi pada teknik bercocok tanam yang memungkinkan untuk dikembangkan dalam skala industri dan komersil, sehingga cukup kompetitif dalam mendukung ketersediaan pangan dunia.

Referensi :

http://www.fujitsu.com/global/about/resources/news/press-releases/2012/0718-01.html

http://www.npr.org/sections/thesalt/2015/02/23/388467327/-freight-farms-grow-local-flavor-year-round

http://technode.com/2015/11/03/alesca-life-introduces-farming-service-model-indoor-farming/

http://www.freightfarms.com/

Contributor :

Tim idbigdata
always connect to collaborate every innovation 🙂
Tertarik dengan Big Data beserta ekosistemnya? Gabung