ভূমিকা
মেশিন লার্নিং বা এআই (AI) প্রজেক্টের সবচেয়ে গুরুত্বপূর্ণ ধাপ হলো প্রচুর পরিমাণে সঠিক ডেটা বা তথ্য সংগ্রহ করা। আপনি যদি একটি কম্পিউটারকে শেখাতে চান যে কোন ছবিটি কার (যেমন- মারিয়া শারাপোভা বা অন্য কেউ), তবে তাকে ওই ব্যক্তির প্রচুর ছবি দেখাতে হবে। এই ভিডিওটিতে ডেটা সংগ্রহের চারটি কার্যকরী উপায় নিয়ে আলোচনা করা হয়েছে।
১. ম্যানুয়ালি বা হাতে-কলমে ছবি ডাউনলোড করা
রেফারেন্স: ভিডিও থেকে পর্যন্ত।
এটি হলো সবচেয়ে সহজ পদ্ধতি। আপনি গুগল ইমেজ-এ গিয়ে ছবিগুলো একটি একটি করে ডাউনলোড করবেন।
-
সুবিধা: যদি আপনার খুব কম সংখ্যক (যেমন ৫০টি) ছবির প্রয়োজন হয়, তবে এই পদ্ধতিটিই সেরা এবং ঝামেলামুক্ত।
-
অসুবিধা: যদি আপনার হাজার হাজার ছবির প্রয়োজন হয়, তবে এটি অনেক সময়সাপেক্ষ এবং ক্লান্তিকর কাজ।
২. ওয়েব স্ক্র্যাপিং বা অটোমেশনের মাধ্যমে ছবি সংগ্রহ
রেফারেন্স: ভিডিও থেকে পর্যন্ত।
এখানে আপনি পাইথন কোড এবং অটোমেশন সফটওয়্যার ব্যবহার করে স্বয়ংক্রিয়ভাবে গুগল থেকে ছবি নামাতে পারেন।
-
সেলেনিয়াম (Selenium): এটি একটি অটোমেশন টুলের নাম। এটি এমনভাবে কাজ করে যেন কোনো মানুষ নিজে ব্রাউজারে গিয়ে ক্লিক করছে, স্ক্রল করছে এবং ছবি ডাউনলোড করছে।
-
সতর্কতা: ওয়েব স্ক্র্যাপিং সবসময় খুব একটা নিরাপদ নয়। গুগল বা বড় বড় ওয়েবসাইটগুলো সবসময় চায় না যে কেউ তাদের ডেটা এভাবে টেনে নিয়ে যাক (Scrap)। তাদের অ্যালগরিদম নিয়মিত আপডেট হয়, ফলে আজ যে কোড কাজ করছে, তা কাল নাও করতে পারে। আইনি দিক থেকেও এটি একটি ধূসর এলাকা বা 'Grey Area'—অর্থাৎ পুরোপুরি বৈধ বা অবৈধ বলা কঠিন।
৩. ব্রাউজার এক্সটেনশন ব্যবহার করা
রেফারেন্স: ভিডিও থেকে পর্যন্ত।
এটি ব্যক্তিগতভাবে সাজেস্ট করা একটি সহজ উপায়। 'Fatkun' এর মতো ক্রোম এক্সটেনশন ব্যবহার করে আপনি খুব সহজেই গুগল ইমেজ থেকে শত শত ছবি এক ক্লিকেই ডাউনলোড করতে পারেন।
- কেন এটি ভালো: আপনাকে কোনো কোড লিখতে হবে না। আপনি ছবির সাইজ বা রেজোলিউশন অনুযায়ী ফিল্টারও করতে পারেন।
৪. ছবি কেনা বা নিজস্ব ডেটাসেট ব্যবহার করা
রেফারেন্স: ভিডিও থেকে পর্যন্ত।
বড় বড় কোম্পানিগুলো সাধারণত সরাসরি ছবি কিনে নেয়।
- পেশাদার পদ্ধতি: নিউজ এজেন্সি বা ইমেজ ভেন্ডরদের কাছ থেকে টাকা দিয়ে ছবি কেনা যায়। অথবা আপনি যদি বড় কোম্পানিতে কাজ করেন, তবে তাদের কাছে থাকা নিজস্ব ডেটা ওয়্যারহাউস (যেখানে সব ডেটা জমা থাকে) থেকে ছবি সংগ্রহ করতে পারেন।
কঠিন শব্দগুলোর সহজ ব্যাখ্যা
-
সুপারভাইজড লার্নিং (Supervised Learning): কম্পিউটারকে যখন লেবেল বা উত্তরসহ ডেটা দিয়ে শেখানো হয়, তাকে সুপারভাইজড লার্নিং বলে। (যেমন- একটি ছবিতে মারিয়ার নাম লিখে দেওয়া, যাতে কম্পিউটার পরে চিনতে পারে)।
-
ওয়েব স্ক্র্যাপিং (Web Scraping): ইন্টারনেট থেকে স্বয়ংক্রিয়ভাবে তথ্য বা ছবি সংগ্রহ করার প্রযুক্তি।
-
অ্যালগরিদম (Algorithm): কোনো কাজ ধাপে ধাপে করার জন্য নির্দিষ্ট কিছু নিয়ম বা গাণিতিক সূত্র।
-
ডেটাসেট (Dataset): কোনো প্রজেক্টের জন্য যে বিপুল পরিমাণ তথ্য বা ছবি একসাথে সংগ্রহ করা হয়।
বিশ্লেষণ ও ব্যক্তিগত মতামত
ভিডিওর নির্মাতা খুব সুন্দরভাবে দেখিয়েছেন যে একটি মেশিন লার্নিং প্রজেক্টের শুরুটা কীভাবে করতে হয়। রিয়েল লাইফ প্রজেক্টের ক্ষেত্রে, স্ক্র্যাপিং কোড লেখার চেয়ে অনেক সময় 'Fatkun' বা ভালো এক্সটেনশন ব্যবহার করা অনেক বেশি কার্যকর, কারণ এতে সময়ের সাশ্রয় হয়।
আমার পরামর্শ: আপনি যদি শেখার জন্য প্রজেক্ট করেন, তবে আগে গুগল থেকে অল্প কিছু ম্যানুয়াল ছবি নিয়ে শুরু করুন। এরপর একটু জটিল প্রজেক্টের জন্য স্ক্র্যাপিং শিখতে পারেন। আর যদি প্রফেশনাল লেভেলের কাজ হয়, তবে ডেটাসেট কেনা বা কোম্পানির নিজস্ব ভাণ্ডার ব্যবহার করাই সবচেয়ে বুদ্ধিমানের কাজ।
ভিডিওর রেফারেন্স লিংক: https://www.youtube.com/watch?v=m1dQ38qDABw
[
0 views
](http://www.youtube.com/watch?v=m1dQ38qDAB7)
[
Data Science & Machine Learning Project - Part 2 Data Collection | Image Classification
codebasics · 115K views
](http://www.youtube.com/watch?v=m1dQ38qDABw)

মন্তব্যসমূহ
একটি মন্তব্য পোস্ট করুন
আপনার সমস্যাটি কমেন্ট করে আমাদের জানান :-d