উবুন্টু/ডেবিয়ানে অ্যাপাচি স্পার্ক ইনস্টল ও সেটআপ করবেন কীভাবে


অ্যাপাচি স্পার্ক একটি ওপেন-সোর্স বিতরণযোগ্য গণনা কাঠামো যা দ্রুত গণনার ফলাফল সরবরাহ করার জন্য তৈরি করা হয়। এটি একটি ইন-মেমোরি কম্পিউটেশনাল ইঞ্জিন, অর্থাত মেমরিতে ডেটা প্রক্রিয়া করা হবে।

স্পার্ক স্ট্রিমিং, গ্রাফ প্রসেসিং, এসকিউএল, এমএললিবের জন্য বিভিন্ন এপিআই সমর্থন করে। এটি জাভা, পাইথন, স্কেলা এবং আরকে পছন্দসই ভাষা হিসাবে সমর্থন করে। স্পার্ক বেশিরভাগ হ্যাডোপ ক্লাস্টারে ইনস্টল থাকে তবে আপনি স্টারডোনাল মোডে স্পার্ক ইনস্টল ও কনফিগার করতে পারেন।

এই নিবন্ধে, আমরা দেখব কীভাবে ডেবিয়ান এবং উবুন্টু ভিত্তিক বিতরণগুলিতে অ্যাপাচি স্পার্ক ইনস্টল করা যায়।

উবুন্টুতে জাভা এবং স্কেলা ইনস্টল করুন

উবুন্টুতে অ্যাপাচি স্পার্ক ইনস্টল করতে আপনার মেশিনে জাভা এবং স্কেলা ইনস্টল করা দরকার। আধুনিক ডিস্ট্রিবিউশনের বেশিরভাগটি জাভা ডিফল্টরূপে ইনস্টল করে আসে এবং আপনি নিম্নলিখিত কমান্ডটি ব্যবহার করে এটি যাচাই করতে পারেন।

$ java -version

যদি কোনও আউটপুট না থাকে তবে আপনি কীভাবে উবুন্টুতে জাভা ইনস্টল করবেন সে সম্পর্কে আমাদের নিবন্ধটি ব্যবহার করে জাভা ইনস্টল করতে পারেন বা উবুন্টু এবং ডেবিয়ান-ভিত্তিক বিতরণগুলিতে জাভা ইনস্টল করার জন্য নিম্নলিখিত কমান্ডগুলি চালনা করতে পারেন।

$ sudo apt update
$ sudo apt install default-jre
$ java -version

এরপরে, আপনি স্কেল অনুসন্ধান করতে এবং এটি ইনস্টল করতে নিম্নলিখিত কমান্ডগুলি চালিয়ে অ্যাপ্লিকেশন সংগ্রহস্থল থেকে স্কালা ইনস্টল করতে পারেন।

$ sudo apt search scala  ⇒ Search for the package
$ sudo apt install scala ⇒ Install the package

স্কেলার ইনস্টলেশন যাচাই করতে নীচের কমান্ডটি চালান।

$ scala -version 

Scala code runner version 2.11.12 -- Copyright 2002-2017, LAMP/EPFL

উবুন্টুতে অ্যাপাচি স্পার্ক ইনস্টল করুন

টার্মিনালে সরাসরি ফাইলটি ডাউনলোড করতে অফিসিয়াল উইজেট কমান্ডে যান।

$ wget https://apachemirror.wuchna.com/spark/spark-3.1.1/spark-3.1.1-bin-hadoop2.7.tgz

এখন আপনার টার্মিনালটি খুলুন এবং আপনার ডাউনলোড করা ফাইলটি যেখানে স্থাপন করা হয়েছে সেখানে স্যুইচ করুন এবং অ্যাপাচি স্পার্ক টার ফাইলটি বের করার জন্য নিম্নলিখিত কমান্ডটি চালান।

$ tar -xvzf spark-3.1.1-bin-hadoop2.7.tgz

অবশেষে, উত্তোলিত স্পার্ক ডিরেক্টরিটি/অপ্ট ডিরেক্টরিতে সরান।

$ sudo mv spark-3.1.1-bin-hadoop2.7 /opt/spark

স্পার্কের জন্য পরিবেশগত পরিবর্তনগুলি কনফিগার করুন

এখন আপনাকে স্পার্ক শুরু করার আগে আপনার। প্রোফাইল ফাইলে কয়েকটি পরিবেশগত পরিবর্তনশীল সেট করতে হবে।

$ echo "export SPARK_HOME=/opt/spark" >> ~/.profile
$ echo "export PATH=$PATH:/opt/spark/bin:/opt/spark/sbin" >> ~/.profile
$ echo "export PYSPARK_PYTHON=/usr/bin/python3" >> ~/.profile

এই নতুন পরিবেশের ভেরিয়েবলগুলি শেলের মধ্যে পৌঁছনীয় এবং অ্যাপাচি স্পার্কের কাছে উপলব্ধ রয়েছে তা নিশ্চিত করার জন্য সাম্প্রতিক পরিবর্তনগুলি কার্যকর করার জন্য নিম্নলিখিত কমান্ডটি চালানোও বাধ্যতামূলক।

$ source ~/.profile

পরিষেবাগুলি শুরু এবং বন্ধ করার জন্য সমস্ত স্পার্ক-সম্পর্কিত বাইনারিগুলি এসবিন ফোল্ডারের অধীনে।

$ ls -l /opt/spark

উবুন্টুতে অ্যাপাচি স্পার্ক শুরু করুন

স্পার্ক মাস্টার পরিষেবা এবং দাস পরিষেবা শুরু করতে নিম্নলিখিত কমান্ডটি চালান Run

$ start-master.sh
$ start-workers.sh spark://localhost:7077

একবার পরিষেবা শুরু হয়ে গেলে ব্রাউজারে যান এবং নীচের URL টি অ্যাক্সেস স্পার্ক পৃষ্ঠাটি টাইপ করুন। পৃষ্ঠা থেকে আপনি দেখতে পাচ্ছেন যে আমার মাস্টার এবং দাস পরিষেবাটি শুরু হয়েছে।

http://localhost:8080/
OR
http://127.0.0.1:8080

স্পার্ক শেল কমান্ড চালু করে স্পার্ক-শেলটি ঠিকঠাক কাজ করে কিনা তাও আপনি পরীক্ষা করতে পারেন।

$ spark-shell

এই নিবন্ধটির জন্য এটি। আমরা আপনাকে খুব শীঘ্রই আরও একটি আকর্ষণীয় নিবন্ধের সাথে ধরব।