একটি আর্টিফিশিয়াল নিউরাল নেটওয়ার্কে, একটি হিডেন লেয়ার মূলত ইনপুট ভ্যালুগুলোকে ওয়েট (weights), বায়াস (bias) এবং একটি অ্যাক্টিভেশন ফাংশনের সাহায্যে প্রসেস করে। এর ফলে ইন্টারমিডিয়েট বা মধ্যবর্তী কিছু আউটপুট তৈরি হয় যা চূড়ান্ত প্রেডিকশন করতে সাহায্য করে।
হিডেন নিউরন H1: w1 = 0.5 (x1 থেকে), w2 = 0.4 (x2 থেকে) | বায়াস = 0.1
হিডেন নিউরন H2: w3 = 0.3, w4 = 0.7 | বায়াস = 0.2
নিউরন H1:
নিউরন H2:
সূত্র: f(x) = max(0, x)
হিডেন থেকে আউটপুটের ওয়েট: v1 = 0.6, v2 = 0.5 | বায়াস = 0.3
রেক্টিফাইড লিনিয়ার ইউনিট (ReLU) হলো আর্টিফিশিয়াল নিউরাল নেটওয়ার্কে ব্যবহৃত একটি সহজ কিন্তু অত্যন্ত জনপ্রিয় অ্যাক্টিভেশন ফাংশন। ইনপুট যদি পজিটিভ হয়, তবে এটি ঠিক সেই ইনপুটটিই আউটপুট হিসেবে দেয়, আর নেগেটিভ হলে শূন্য (zero) আউটপুট দেয়।
| বৈশিষ্ট্য | বিবরণ |
|---|---|
| সূত্র (Formula) | f(x) = max(0, x) |
| পরিচিতি লাভ | ২০১০ সালে (Nair & Hinton এর মাধ্যমে জনপ্রিয় হয়) |
| ডেরিভেটিভ | 1 (যখন x > 0), 0 (যখন x ≤ 0) |
| ভ্যারিয়েন্টসমূহ | Leaky ReLU, Parametric ReLU (PReLU), Exponential Linear Unit (ELU) |
| প্রধান ব্যবহার | ডিপ নিউরাল নেটওয়ার্কের হিডেন লেয়ারে |
ReLU জিরো বা শূন্যতে একটি থ্রেশহোল্ড প্রয়োগ করে: পজিটিভ সিগন্যালগুলো অপরিবর্তিত থাকে, আর নেগেটিভ সিগন্যালগুলো শূন্য হয়ে যায়। এই সিলেক্টিভ বা বাছাইকৃত অ্যাক্টিভেশনের ফলে একটি স্পার্স রিপ্রেজেন্টেশন (sparse representation) তৈরি হয়, যা নেটওয়ার্কের দক্ষতা এবং জেনারেলাইজেশন বাড়ায়। ব্যাকপ্রোপাগেশনের সময় এটি গ্র্যাডিয়েন্টকে স্থিতিশীল রাখে।
পজিটিভ ইনপুটের ক্ষেত্রে এর লিনিয়ারিটির কারণে ভ্যানিশিং গ্র্যাডিয়েন্ট (vanishing gradient) সমস্যা কমে যায়, যা ডিপ আর্কিটেকচারগুলোকে (যেমন CNN) দক্ষতার সাথে ট্রেইন করতে সাহায্য করে। এক্সপোনেনশিয়াল ফাংশনগুলোর তুলনায় এটি কম্পিউট করতে অনেক কম সময় নেয়, যে কারণে এটি TensorFlow এবং PyTorch-এর মতো ফ্রেমওয়ার্কে ডিফল্ট অ্যাক্টিভেশন ফাংশন হিসেবে ব্যবহৃত হয়।
এটি "ডেড নিউরন (dead neurons)" তৈরি করতে পারে, যেখানে ইনপুট সবসময় নেগেটিভ থাকলে নিউরনগুলো কাজ করা বন্ধ করে দেয়। এর সমাধানগুলো হলো:
ইমেজ ক্লাসিফিকেশন, ন্যাচারাল ল্যাঙ্গুয়েজ প্রসেসিং, স্পিচ রিকগনিশন এবং রিইনফোর্সমেন্ট লার্নিংয়ের মডেলগুলোতে মূল ভিত্তি হিসেবে ReLU ব্যবহৃত হয়। এর সরলতা এবং শক্তিশালী পারফরম্যান্স ডিপ লার্নিংয়ের সাফল্যের অন্যতম চাবিকাঠি।