---
جلسه هفدهم: ابزار سازی با پایتون برای تست نفوذ!سلام به همه علاقمندان به دنیای امنیت و پایتون!
در این جلسه، وارد بخش جذاب «ابزارسازی اختصاصی برای تست نفوذ» میشویم. اگر تا الآن فقط از ابزارهای آماده استفاده میکردید، وقتش رسیده که خودتان یک اسکریپت حرفهای بنویسید!
###
سرفصلهای این جلسه:1. اتوماسیون اسکن پورت با Socket Programming 2. تحلیل پکتهای شبکه با استفاده از Scapy 3. شبیهسازی حملات متداول (مثل ARP Spoofing) 4. نوشتن یک اسکنر اختصاصی برای آسیبپذیریهای وب
###
نمونه کد ساده برای اسکن پورت:
###
نکته امنیتی این جلسه:«ابزارسازی فقط برای اهداف آموزشی و تست نفوذ مجاز است. هرگونه استفاده غیرقانونی پیگرد قانونی دارد!»
برای دسترسی به کد کامل ویدیو و فایلهای تمرینی، به کانال ما مراجعه کنید:
پیشنیاز: آشنایی با مباحث شبکه و پایتون مقدماتی #پایتون #امنیت_سایبری #تست_نفوذ #هک_اخلاقی #ابزارسازی #Python #CyberSecurity #EthicalHacking #جلسه_۱۷
در این جلسه، وارد بخش جذاب «ابزارسازی اختصاصی برای تست نفوذ» میشویم. اگر تا الآن فقط از ابزارهای آماده استفاده میکردید، وقتش رسیده که خودتان یک اسکریپت حرفهای بنویسید!
###
###
import socket
target = "example.com"
ports = [21, 22, 80, 443]
for port in ports:
sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
sock.settimeout(1)
result = sock.connect_ex((target, port))
if result == 0:
print(f"Port {port}: OPEN")
sock.close()
###
۱۸:۰۳
[عنوان جلسه هجدهم: شبیهسازی حمله Brute-Force و راههای مقابله با آن]
سلام به همه علاقمندان به دنیای امنیت سایبری!
در جلسه هجدهم از دورهی «پایتون برای هک و امنیت»، به یکی از جذابترین و کاربردیترین مباحث میرسیم: «شبیهسازی حمله Brute-Force»**.
---
####
در این جلسه چه میآموزیم؟
**آشنایی با مفهوم حمله Brute-Force
نوشتن اسکریپت پایتون برای کرک پسوردها
کار با کتابخانههای `requests` و `threading`
روشهای محافظت در برابر Brute-Force (مثل Captcha، Rate Limiting)
آنالیز لاگها برای شناسایی حملات
---
####
کد نمونه پایتون (Brute-Force ساده):
---
####
نکته اخلاقی:این آموزش فقط برای اهداف آموزشی و تست نفوذ با مجوز رسمی ارائه شده.
عدم رعایت اصول اخلاقی پیگرد قانونی دارد!
---
####
لینکهای مفید:- دانلود کدهای جلسه: [لینک گیتهاب]- جلسات قبلی: [لینک کانال/پلیلیست]
---
هدف این جلسه:آموزش تکنیکهای هک برای درک بهتر آسیبپذیریها و افزایش امنیت سیستمها.
اگر شما هم به امنیت سایبری علاقهمندید، همین حالا سیو کنید و به جمع متخصصان ما بپیوندید!
---هشتگها:#پایتون #امنیت_سایبری #هک_اخلاقی #BruteForce #تست_نفوذ #برنامه_نویسی #Hacking #Python
سلام به همه علاقمندان به دنیای امنیت سایبری!
---
####
---
####
import requests
def brute_force_login(url, username, password_list):
for password in password_list:
data = {'username': username, 'password': password}
response = requests.post(url, data=data)
if "Login successful" in response.text:
print(f"[+] Password found: {password}")
return
print("[-] Password not found.")
# مثال Usage
url = "http://example.com/login"
username = "admin"
passwords = ["123456", "password", "admin", "letmein"]
brute_force_login(url, username, passwords)
---
####
---
####
---
اگر شما هم به امنیت سایبری علاقهمندید، همین حالا سیو کنید و به جمع متخصصان ما بپیوندید!
---هشتگها:#پایتون #امنیت_سایبری #هک_اخلاقی #BruteForce #تست_نفوذ #برنامه_نویسی #Hacking #Python
۱۸:۲۹
سلام به همه هکرهای کدنویس و علاقهمندان به امنیت!به جلسه پایانی از دوره تخصصی «کاربرد پایتون در هک و امنیت» خوش آمدید. در این جلسه، تمام تکههای پازل را کنار هم میگذاریم تا ابزار قدرتمند و خودکاری بسازید که قابلیت استفاده در سناریوهای واقعی را داشته باشد.
---
بخش اول: گردآوری آموختهها
· مرور سریع ۲۴ جلسه گذشته: · اصول برنامهنویسی پایتون برای امنیت · کار با کتابخانههای کلیدی (socket, scapy, requests, paramiko, cryptography) · اسکریپتنویسی برای: · جمعآوری اطلاعات (Information Gathering) · تحلیل ترافیک شبکه · تست نفوذ وب · تحلیل بدافزار · رمزنگاری و شکستن رمز
بخش دوم: پروژه پایانی - ساخت Scanner & Exploit Framework ساده
یک فریمورک سبک اما کاربردی میسازیم که قابلیتهای زیر را یکجا دارد:
# نمونه کُد کلاس اصلی
class PySecTool:
def __init__(self, target):
self.target = target
def port_scanner(self):
# اسکن پورت با multi-threading
pass
def directory_bruteforcer(self):
# کشف مسیرهای پنهان وبسرور
pass
def vulnerability_checker(self):
# بررسی آسیبپذیریهای شناخته شده
pass
def report_generator(self):
# خروجی گزارش خودکار
pass
بخش سوم: بهینهسازی و پنهانسازی
· تبدیل اسکریپت به اجرایی (exe) با PyInstaller· استفاده از تکنیکهای مبهمسازی کد (Obfuscation)· افزودن قابلیت دور زدن آنتیویروس (ساده)
بخش چهارم: مسیرهای تخصصیتر
· معرفی زمینههای پیشرفته: · توسعه ماژول برای Metasploit · اسکریپتنویسی در Burp Suite · تحلیل بدافزار با پایتون · اتوماسیون در پلتفرمهای مثل Cuckoo Sandbox· منابع برای ادامه راه: · دورههای پیشرفته (OSCP, GPEN) · کتابهای تخصصی · جامعههای GitHub
---
---
حالا شما میتوانید:
· نیازهای امنیتی خود را به کد تبدیل کنید· در باگبانتیها شرکت فعال داشته باشید· رزومهای قوی در بخش ابزارسازی امنیتی بسازید
---
---
#پایتون_در_امنیت #هک_قانونی #امنیت_اطلاعات#برنامه_نویسی_پایتون #توسعه_ابزار_امنیتی #Python_Security#هکر_اخلاقی #کدنویسی_امنیتی #Ethical_Hacking#دوره_آموزشی #مسیر_شغلی_امنیت
---
۱۸:۰۲
کانال بله: آکادمی آریا @aiusedاسم دوره: APX.JP
---
#یادگیری_هوش_مصنوعی #آموزش_AI #دوره_تخصصی #APX_JP#آکادمی_آریا #تحول_شغلی #آینده_در_دست_تو
۱۸:۰۷
سلام دوستان! امروز اولین جلسه از دورهٔ آموزش هوش مصنوعی رو با هم شروع میکنیم. در این جلسه قصد داریم به سوالات پایهای پاسخ بدیم و دید کلی نسبت به این دنیای شگفتانگیز پیدا کنیم.
---
###
---
###
---
###
---
###
---
###
---
###
---
در جلسات بعدی، با یادگیری ماشین و اولین الگوریتم معروف آن یعنی رگرسیون خطی آشنا خواهیم شد.
---
پرسش برای تعامل:به نظر شما تاثیرگذارترین کاربرد هوش مصنوعی در زندگی روزمره چه چیزی است؟
---`#آموزش_هوش_مصنوعی` `#جلسه_اول` `#مقدمات_AI` `#یادگیری_ماشین` `#هوش_مصنوعی_برای_همه`
۱۹:۱۹
سلام به همه همراهان دوره آموزش هوش مصنوعی!
اما واقعاً ماشین چگونه یاد میگیرد؟
---
#آموزش_هوش_مصنوعی #یادگیری_ماشین #جلسه_دوم #هوش_مصنوعی_مقدماتی #تحول_دیجیتال#داده_کاوی#SupervisedLearning #UnsupervisedLearning
۸:۵۲
در این جلسه، تمرکز ما بر یادگیری ماشین (Machine Learning) و ارتباط آن با هوش مصنوعی است. این پست آموزشی بهصورت کامل و مرحلهبهمرحله طراحی شده تا هم برای مبتدیان و هم برای علاقهمندان پیشرفته قابل استفاده باشد.
---
---
---
---
---
---
---
۱۴:۳۴
لینک آزمون این جلسه https://copilot.microsoft.com/shares/MbRvivrxaL8CoeA5dZqxp
۱۴:۳۵
در جلسه چهارم، تمرکز ما بر شبکههای عصبی مصنوعی (Artificial Neural Networks) است؛ یکی از مهمترین ابزارها در یادگیری ماشین و هوش مصنوعی که الهامگرفته از ساختار مغز انسان طراحی شدهاند.
---
---
---
---
---
---
---
---
۱۶:۰۷
سلام همراهان هوشمصنوعی!در جلسه پنجم، به قلب مدرنترین فناوریهای هوش مصنوعی میرویم: شبکههای عصبی مصنوعی (Artificial Neural Networks - ANN). این شبکهها الهامگرفته از مغز انسان هستند و پایهی فناوریهای پیشرفتهای چون خودروهای خودران، چتباتهای هوشمند و سیستمهای تشخیص تصویر میباشند.
---
🧩 ساختار یک شبکه عصبی ساده:
یک شبکه عصبی از سه لایه اصلی تشکیل شده است:
1. لایه ورودی (Input Layer): دادههای اولیه را دریافت میکند (مثل پیکسلهای یک تصویر).2. لایه(های) پنهان (Hidden Layers): محاسبات و استخراج ویژگیها در این لایه انجام میشود.3. لایه خروجی (Output Layer): نتیجه نهایی را ارائه میدهد (مثلاً تشخیص اینکه تصویر، یک گربه است).
---
1. تابع فعالسازی (Activation Function): · به شبکه امکان مدلسازی روابط غیرخطی را میدهد. · مثال معروف: ReLU که امروزه بسیار پرکاربرد است. · بدون آن، شبکه عصبی چیزی بیشتر از یک رگرسیون خطی نخواهد بود!2. پسانتشار (Backpropagation): · الگوریتمی است که شبکه با آن یادمیگیرد. · خطای شبکه به عقب انتشار داده میشود و وزنها تنظیم میشوند تا خطا کمینه شود. · قلب فرآیند یادگیری عمیق است.
---
فرض کنید میخواهیم یک شبکه عصبی ساده با یک لایه پنهان در پایتون بسازیم:
import tensorflow as tf
from tensorflow.keras import layers
# ساخت یک مدل ساده Sequential
model = tf.keras.Sequential([
layers.Dense(64, activation='relu', input_shape=(784,)), # لایه پنهان با 64 نورون
layers.Dense(10, activation='softmax') # لایه خروجی با 10 کلاس
])
# خلاصهای از معماری مدل
model.summary()
خروجی:
Model: "sequential"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
dense (Dense) (None, 64) 50240
dense_1 (Dense) (None, 10) 650
=================================================================
Total params: 50,890
Trainable params: 50,890
Non-trainable params: 0
_________________________________________________________________
---
1. پرسپترون (Perceptron): سادهترین نوع شبکه عصبی (یک لایه).2. شبکههای عصبی عمیق (DNN): چندین لایه پنهان.3. شبکههای کانولوشنی (CNN): مخصوص دادههای تصویری (جلسه آینده!).4. شبکههای بازگشتی (RNN): مخصوص دادههای دنبالهای مانند متن یا صوت.
---
شبکههای عصبی مانند یک کودک هستند! ابتدا با دادههای آموزشی تغذیه میشوند، اشتباه میکنند، از اشتباهات درس میگیرند (توسط Backpropagation) و در نهایت در انجام یک کار متخصص میشوند. کلید موفقیت آنها داده باکیفیت و معماری مناسب است.
---
---
پرسش برای تعامل:به نظر شما، کدام یک از کاربردهای شبکههای عصبی در آینده میتواند زندگی انسان را متحول کند؟ از پزشکی تا سرگرمی!
---
#جلسه_پنجم_هوش_مصنوعی #شبکه_عصبی_مصنوعی #یادگیری_عمیق #پسانتشار #تابع_فعال_سازی #علوم_داده #دنیای_AI
۱۳:۰۴
سلام به همه همراهان هوشمند و آیندهسازان فناوری!
---
۱. مرور سریع جلسه پنجم (در ۵ دقیقه)
· یادگیری نظارتشده در مقابل نظارتنشده· ارزیابی مدلهای طبقهبندی: دقت، یادآوری، F1-Score
۲. شبکههای عصبی مصنوعی (ANN) – بخش اول
· نورون مصنوعی: ساختار و عملکرد· لایههای ورودی، پنهان و خروجی· تابع فعالسازی: Sigmoid, ReLU, Tanh – چرا و کجا؟
۳. پیادهسازی یک شبکه عصبی ساده با Python
· استفاده از کتابخانههای TensorFlow و Keras· ساخت اولین مدل شبکه عصبی برای تشخیص دستنوشتههای عددی (MNIST)· کدنویسی گامبهگام + توضیح هر خط
# مثال ساده از ساخت مدل
from tensorflow import keras
model = keras.Sequential([
keras.layers.Dense(128, activation='relu', input_shape=(784,)),
keras.layers.Dense(10, activation='softmax')
])
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])
۴. مفهوم Backpropagation و Gradient Descent (به زبان ساده)
· کاهش خطا و تنظیم وزنها· نرخ یادگیری (Learning Rate) – موتور اصلی آموزش مدل
۵. کار عملی: آموزش مدل روی دادههای واقعی
· بارگذاری دیتاست· آموزش مدل و مشاهده روند بهبود دقت· ذخیره و بارگذاری مدل آموزشدیده
۶. معرفی ابزارهای رایگان برای تمرین بیشتر
· Google Colab – محیط ابری رایگان· Kaggle – دیتاستهای آماده و مسابقات
---
· افرادی که جلسات قبلی را دنبال کردهاند· علاقهمندان به پیادهسازی عملی هوش مصنوعی· توسعهدهندگان، دانشجویان و پژوهشگران حوزه فناوری
---
·
---
· نیاز به پیشنیاز خاصی داریم؟ آشنایی با مباحث جلسات قبلی و پایهای Python کافی است.· جلسات قبلی کجاست؟ پلیلیست کامل در کانال یوتیوب/سایت موجود است.
---
سوالات خود را در بخش نظرات بپرسید همچنین میتوانید از هشتگ #دوره_هوش_مصنوعی_جلسه۶ در شبکههای اجتماعی استفاده کنید.
---
---
پست توسط تیم آموزشی دوره هوش مصنوعی تهیه شده است. هرگونه کپیبرداری با ذکر منبع بلامانع است.
۴:۴۹
سلام به همه یادگیرندگان پرانرژی و کنجکاو دنیای هوش مصنوعی!
---
۱. مرور فشرده جلسه ششم (۱۰ دقیقه)
· معماری شبکههای عصبی مصنوعی (ANN)· توابع فعالسازی و Backpropagation· کار با TensorFlow/Keras
۲. مقدمهای بر پردازش تصویر با هوش مصنوعی
· چرا ANN برای تصاویر مناسب نیست؟· مفهوم Local Connectivity و Parameter Sharing· معرفی معماری LeNet (پدر CNN مدرن)
۳. لایههای کلیدی در CNN
· لایه کانولوشن (Conv2D) – قلب CNN· لایه Pooling (MaxPool, AvgPool) – کاهش ابعاد· لایه Flatten – تبدیل به ورودی ANN· لایه Dropout – جلوگیری از Overfitting
۴. پیادهسازی CNN برای تشخیص اشیاء
· استفاده از دیتاست CIFAR-10 (۱۰ کلاس تصویری)· ساخت مدل چندلایه با Keras· افزودن Regularization برای بهبود عملکرد
# نمونه کد CNN در Keras
from tensorflow.keras import layers, models
model = models.Sequential([
layers.Conv2D(32, (3,3), activation='relu', input_shape=(32,32,3)),
layers.MaxPooling2D((2,2)),
layers.Conv2D(64, (3,3), activation='relu'),
layers.MaxPooling2D((2,2)),
layers.Flatten(),
layers.Dense(64, activation='relu'),
layers.Dropout(0.5),
layers.Dense(10, activation='softmax')
])
۵. آموزش مدل و تفسیر نتایج
· تنظیم Hyperparameters (Batch Size, Epochs)· مشاهده Accuracy و Loss روی دادههای Validation· تحلیل نمودارهای آموزش و مشکلات Overfitting/Underfitting
۶. انتقال یادگیری (Transfer Learning) – معرفی
· استفاده از مدلهای از پیش آموزشدیده (VGG16, ResNet)· کاربرد در پروژههای با داده محدود· معرفی منابع رایگان مدلهای آماده
---
تشخیص گربه/سگ با دقت بالا
· استفاده از دیتاست معروف Kaggle· پیادهسازی CNN با معماری بهینه· رسیدن به دقت بیش از ۹۰% در طبقهبندی
---
·
---
· آشنایی با مباحث جلسه ششم· نصب TensorFlow 2.x· حساب کاربری رایگان Google Colab یا Kaggle
---
· آیا CNN فقط برای تصویر است؟ خیر!در پردازش ویدیو، صوت و حتی متن هم کاربرد دارد.· نیاز به سیستم قوی داریم؟ خیر،میتوانید از Google Colab با GPU رایگان استفاده کنید.· پروژهها انفرادی است یا گروهی؟ هر دو صورت امکانپذیر است.
---
· مقاله اصلی AlexNet (۲۰۱۲) – شروع انقلاب CNN· کتاب Deep Learning for Computer Vision· دوره رایگان Andrew Ng در Coursera
---
---
بهترین مدل CNN برای تشخیص اعداد فارسی (دیتاست جدید)
---
سوالات فنی خود را با هشتگ #CNN_سوال_جلسه۷ در شبکههای اجتماعی مطرح کنید.همچنین میتوانید در گروه تلگرامی دوره به بحث و تبادل نظر بپردازید.
---
---
تهیه شده توسط تیم آموزشی هوش مصنوعی | انتشار با ذکر منبع مجاز است.
---
۱۱:۰۸
سلام به همه هنرمندان داده و معماران هوش مصنوعی!
---
۱. از ANN به CNN: چرا این تحول ضروری بود؟
· محدودیتهای شبکههای عصبی معمولی در پردازش تصویر· الهام از قشر بینایی انسان (Visual Cortex)· معرفی شبکه LeNet-5 به عنوان اولین CNN موفق
۲. معماری CNN: لایه به لایه
لایه کانولوشن (Conv Layer):
· فیلترها (Kernels) چگونه ویژگیها را استخراج میکنند؟· Padding و Stride: کنترل ابعاد خروجی· نقشههای ویژگی (Feature Maps)
لایه Pooling:
· Max Pooling vs Average Pooling· کاهش ابعاد و افزایش مقاومت به جابجایی
لایههای تماممتصل (Fully Connected):
· ترکیب ویژگیهای استخراجشده· تولید خروجی نهایی
۳. پیادهسازی عملی: تشخیص سرطان پوست از تصاویر
· استفاده از دیتاست HAM10000· پیشپردازش تصاویر پزشکی· ساخت مدل CNN با معماری سفارشی· مقایسه عملکرد با مدلهای پایه
# پیادهسازی CNN برای طبقهبندی تصاویر پزشکی
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout, BatchNormalization
model = Sequential([
Conv2D(32, (3,3), activation='relu', input_shape=(224,224,3)),
BatchNormalization(),
MaxPooling2D(2,2),
Conv2D(64, (3,3), activation='relu'),
BatchNormalization(),
MaxPooling2D(2,2),
Conv2D(128, (3,3), activation='relu'),
BatchNormalization(),
MaxPooling2D(2,2),
Flatten(),
Dense(256, activation='relu'),
Dropout(0.5),
Dense(7, activation='softmax') # 7 کلاس بیماری پوستی
])
model.compile(optimizer='adam',
loss='categorical_crossentropy',
metrics=['accuracy'])
۴. تکنیکهای پیشرفته برای بهبود CNN
· Data Augmentation: ایجاد دادههای مصنوعی برای جلوگیری از Overfitting· Batch Normalization: پایدارسازی آموزش شبکه· Callbackها در Keras: EarlyStopping, ModelCheckpoint, ReduceLROnPlateau
۵. تفسیر و تحلیل مدل CNN
· تجسم فیلترهای یادگرفتهشده· نقشههای فعالسازی (Activation Maps)· استفاده از Grad-CAM برای فهم تصمیمگیری مدل
۶. انتقال یادگیری (Transfer Learning) در عمل
· بارگیری مدل از پیش آموزشدیده VGG16· تنظیممجدد لایهها برای کاربرد جدید· آموزش فقط لایههای بالایی (Fine-tuning)
---
مسابقه تشخیص صحت ماسک زدن در مکانهای عمومی
· دیتاست: ۱۰۰۰۰ تصویر افراد با/بدون ماسک· هدف: رسیدن به دقت بالای ۹۵%· زمان: ۴۸ ساعت پس از جلسه
جوایز برندگان:
---
· مدت زمان: ۲ ساعت و ۱۵ دقیقه· نحوه برگزاری: آنلاین زنده + ضبط با کیفیت Full HD· پشتیبانی: ۲۴ ساعته از طریق گروه تلگرامی· پیشنیاز: جلسات ۱-۶ یا آشنایی با پایتون و مبانی یادگیری ماشین
---
· Google Colab Pro (رایگان با VPN)· یا سیستم با مشخصات: · RAM: حداقل ۸GB · GPU: NVIDIA با حداقل ۴GB VRAM (اختیاری)· کتابخانهها: TensorFlow 2.8+, OpenCV, Matplotlib
---
· مجموعه ویدیوهای "CNN Explained Visually"· کتاب الکترونیکی "Practical CNN for Computer Vision"· دیتاستهای رایگان Kaggle برای تمرین· تمپلت پروژههای عملی در GitHub
---
۱. تمپلت کامل پروژه تشخیص تصاویر پزشکی۲.مجموعه ۵۰ مدل از پیش آموزشدیده CNN۳.کتابچه "۱۰۰ نکته طلایی در آموزش CNN"۴.عضویت ۳ ماهه رایگان در پلتفرم Kaggle
---
سوال: آیا CNN برای ویدیو هم کاربرد دارد؟پاسخ: بله! با اضافه کردن بعد زمان (3D Convolution) یا استفاده از CNN + RNN
سوال: تفاوت CNN با Vision Transformer چیست؟پاسخ: در جلسه دوازدهم به تفصیل بررسی میکنیم!
---
"یک CNN خوب مانند یک هنرمند است - ابتدا اجزا را میبیند، سپس کل را درک میکند، و در نهایت خلق میکند."
---
جلسه هشتم به شبکههای عصبی بازگشتی (RNN) و پردازش زبان طبیعی اختصاص دارد.برای آمادگی بهتر، پیشخوانی مقاله "Sequence Modeling" توصیه میشود.
---
۳:۳۸
بینایی میبخشیم. 
---
تولید محتوا: آکادمی هوش مصنوعی آریا
---
تولید محتوا: آکادمی هوش مصنوعی آریا
۳:۳۸
سلام به همه زبانشناسان داده و معماران مکالمه ماشین!
---
۱. مقدمهای بر پردازش زبان طبیعی (NLP)
· چالشهای فهم زبان برای ماشین· کاربردهای مدرن NLP: ترجمه ماشینی، چتباتها خلاصهسازی·
۲. شبکههای عصبی بازگشتی (RNN) - قلب NLP کلاسیک
· معماری RNN و مفهوم حافظه· مسئله وانیش گرادیان (Vanishing Gradient)· انواع RNN: One-to-One, One-to-Many, Many-to-One, Many-to-Many
۳. بهبودهای RNN: LSTM و GRU
· LSTM (Long Short-Term Memory): · ساختار گیتها: Forget, Input, Output Gates · سلول حافظه (Cell State)· GRU (Gated Recurrent Unit): · ساختار سادهتر با عملکرد مشابه · مقایسه LSTM و GRU
۴. پیادهسازی عملی: تحلیل احساسات (Sentiment Analysis)
· استفاده از دیتاست نظرات فیلم IMDB· پیشپردازش متن: Tokenization, Padding, Sequencing· ساخت مدل LSTM برای تشخیص مثبت/منفی
# پیادهسازی LSTM برای تحلیل احساسات
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Embedding, LSTM, Dense, Dropout
from tensorflow.keras.preprocessing.text import Tokenizer
from tensorflow.keras.preprocessing.sequence import pad_sequences
# مدل
model = Sequential([
Embedding(10000, 128, input_length=200),
LSTM(128, dropout=0.2, recurrent_dropout=0.2),
Dense(64, activation='relu'),
Dropout(0.5),
Dense(1, activation='sigmoid')
])
model.compile(optimizer='adam',
loss='binary_crossentropy',
metrics=['accuracy'])
۵. توکارگذاری کلمات (Word Embeddings)
· One-Hot Encoding vs Word Embeddings· Word2Vec, GloVe, FastText· استفاده از Embeddingهای از پیش آموزشدیده
۶. معماری Encoder-Decoder و توجه (Attention)
· مقدمهای بر مکانیزم توجه· کاربرد در ترجمه ماشینی· پیادهسازی ساده Attention
۷. معرفی مدلهای ترنسفورمر (Transformer)
· محدودیتهای RNN/LSTM· ابداع ترنسفورمر در مقاله "Attention Is All You Need"· معماری کلی: Self-Attention, Positional Encoding
---
ساخت چتبات سوال-پاسخ (QA Chatbot)
· دیتاست: سوالات متداول درباره هوش مصنوعی· پیادهسازی با LSTM + Attention· دپلوی مدل در Streamlit برای رابط کاربری
---
· زمان: پنجشنبه ۲ تیر، ساعت ۱۸ الی ۲۰:۳۰· مدت: ۲٫۵ ساعت (شامل ۳۰ دقیقه پرسش و پاسخ)· نحوه برگزاری: آنلاین + ضبط با کیفیت· پیشنیاز: جلسات قبلی یا آشنایی با مبانی Deep Learning
---
· Google Colab (توصیه میشود)· کتابخانههای اصلی:
!pip install tensorflow numpy pandas matplotlib seaborn nltk
---
۱. مقاله اصلی LSTM (۱۹۹۷) - Hochreiter & Schmidhuber۲. کتاب "Natural Language Processing with Python"۳. دوره Stanford CS224N: NLP with Deep Learning۴. مستند "How AI Learns to Talk" از BBC
---
۱. دیتاست فارسی برای تحلیل احساسات (نظرات دیجیکالا)۲.مجموعه Embeddingهای فارسی پیشآموزشدیده۳.تمپلت کامل چتبات با رابط کاربری۴.کوپن ۵۰٪ تخفیف دوره پیشرفته NLP
---
سوال: آیا RNN فقط برای متن کاربرد دارد؟پاسخ: خیر! برای سریهای زمانی (مانند قیمت سهام)، دادههای صوتی و ویدیویی نیز استفاده میشود.
سوال: تفاوت اصلی RNN و Transformer چیست؟پاسخ: RNN ترتیب را با حافظه داخلی مدیریت میکند، اما Transformer با Self-Attention ارتباطهای دور را بهتر میفهمد.
سوال: برای شروع NLP با چه زبانی شروع کنیم؟پاسخ: انگلیسی منابع بیشتری دارد، اما در این جلسه پروژه فارسی هم داریم.
---
ساخت مدل پیشبینی کلمه بعدی (Next Word Prediction)
· با استفاده از LSTM یا GRU· دیتasets: متون فارسی کلاسیک (شاهنامه، دیوان حافظ)· مهلت: ۷۲ ساعت· جایزه: عضویت رایگان در پلتفرمهای NLP داخلی
---
"زبان، پیچیدهترین و زیباترین داده انسان است. امروز میآموزیم چگونه این زیبایی را به ماشین منتقل کنیم."
---
جلسه نهم به مقدمهای بر یادگیری تقویتی (RL) اختصاص خواهد داشت.برای آمادگی، پیشنهاد میشود بازیهای ساده Grid World را تجربه کنید.
---
۱۵:۱۳
روز به ماشین زبان میآموزیم، فردا با ما گفتگو میکند. 
---
تهیه شده توسط گروه آموزشی هوش مصنوعی آریا
---
تهیه شده توسط گروه آموزشی هوش مصنوعی آریا
۱۵:۱۳
سلام به همه رهبران هوشمند و علاقمندان به سیستمهای خودآموز!
---
۱. فلسفه یادگیری تقویتی: از حیوانات تا رباتها
· یادگیری تقویتی در طبیعت: شرطیسازی عامل· تفاوت با یادگیری نظارتشده و نظارتنشده· تاریخچه: از تئوری تا AlphaGo و Dota 2
۲. پایههای ریاضی و مفاهیم اصلی
· عامل (Agent)، محیط (Environment)، عمل (Action)· سیگنال پاداش (Reward Signal) و تابع ارزش (Value Function)· معادله بلمن (Bellman Equation) - قلب RL
۳. فرآیند مارکوف تصمیمگیری (MDP)
· حالتها (States) و گذارها (Transitions)· سیاستها (Policies) - استراتژی تصمیمگیری· مقدمهای بر برنامهریزی پویا
۴. روشهای اصلی یادگیری تقویتی
· مبتنی بر ارزش (Value-Based): · Q-Learning · Deep Q-Network (DQN)· مبتنی بر سیاست (Policy-Based): · Policy Gradient · REINFORCE Algorithm· روشهای Actor-Critic
۵. پیادهسازی عملی: آموزش عامل برای بازی CartPole
· استفاده از OpenAI Gym· پیادهسازی Q-Learning از پایه· استفاده از DQN با TensorFlow
# پیادهسازی DQN ساده با TensorFlow
import gym
import numpy as np
import tensorflow as tf
from tensorflow.keras import layers
env = gym.make('CartPole-v1')
model = tf.keras.Sequential([
layers.Dense(24, activation='relu', input_shape=(env.observation_space.shape[0],)),
layers.Dense(24, activation='relu'),
layers.Dense(env.action_space.n, activation='linear')
])
# پارامترهای آموزش
gamma = 0.99 # فاکتور تخفیف
epsilon = 1.0 # نرخ exploration
epsilon_min = 0.01
epsilon_decay = 0.995
# حلقه آموزش
for episode in range(1000):
state = env.reset()
state = np.reshape(state, [1, env.observation_space.shape[0]])
for time in range(500):
# انتخاب عمل با استراتژی epsilon-greedy
if np.random.rand() <= epsilon:
action = env.action_space.sample() # exploration
else:
action = np.argmax(model.predict(state)[0]) # exploitation
# اجرای عمل در محیط
next_state, reward, done, _ = env.step(action)
next_state = np.reshape(next_state, [1, env.observation_space.shape[0]])
# آموزش مدل...
if done:
break
# کاهش epsilon
epsilon = max(epsilon_min, epsilon * epsilon_decay)
۶. معرفی الگوریتمهای پیشرفته
· PPO (Proximal Policy Optimization) - الگوریتم برتر OpenAI· A3C (Asynchronous Advantage Actor-Critic) - آموزش توزیعشده· SAC (Soft Actor-Critic) - برای رباتیک
۷. کاربردهای دنیای واقعی
· رباتیک و کنترل· مدیریت منابع شبکه· سیستمهای توصیهگر· بازارهای مالی· خودروهای خودران
---
آموزش عامل برای بازی LunarLander
· هدف: فرود آوردن فضاپیما با کمترین آسیب· استفاده از PPO با Stable Baselines3· رقابت برای بهترین عملکرد
```bash# کتابخانههای مورد نیازpip install gym[all]pip install stable-baselines3pip install tensorflowpip install pyvirtualdisplay # برای نمایش در Cola
۱. کتاب "Reinforcement Learning: An Introduction" - Sutton & Barto۲. دوره David Silver در DeepMind۳. وبلاگ OpenAI Spinning Up۴. مقالات اصلی: DQN (2015), PPO (2017), AlphaGo (2016)
سوال: آیا RL همیشه نیاز به شبیهسازی دارد؟پاسخ: در مراحل اولیه معمولاً بله، اما میتواند در دنیای واقعی هم اعمال شود.
سوال: تفاوت RL و یادگیری نظارتشده چیست؟پاسخ: در RL برچسبهای درست/غلط نداریم، فقط پاداش با تاخیر دریافت میکنیم.
سوال: بهترین الگوریتم برای شروع چیست؟پاسخ: DQN برای محیطهای گسسته، PPO برای محیطهای پیوسته
"DeepMind با AlphaGo نه تنها بهترین بازیکن Go را شکست داد، بلکه استراتژیهای جدیدی ابداع کرد که صدها سال در این بازی دیده نشده بود."
جلسه دهم (مدلهای مولد و GAN) آخرین جلسه تخصصی خواهد بود!جلسه ۱۱ و ۱۲ به پروژههای جامع و آمادهسازی برای بازار کار اختصاص دارد.
۶:۲۲
ها فکر کند، بلکه تصمیم بگیرد و عمل کند. 
۶:۲۲
سلام به همه هنرمندان هوش مصنوعی و خالقان دنیای دیجیتال!
---
۱. انقلاب مدلهای مولد: از تشخیص به خلق
· تفاوت مدلهای مولد (Generative) و تمییزی (Discriminative)· طیف کامل یادگیری ماشین: تشخیص ← پیشبینی ← خلق· انقلاب DALL-E 2، Midjourney و Stable Diffusion
۲. مبانی نظری مدلهای مولد
· توزیع دادهها و فضای نهفته (Latent Space)· یادگیری توزیع احتمال دادهها· ارزیابی مدلهای مولد: Inception Score، FID
۳. شبکههای مولد تخاصمی (GANs) - معماری انقلابی
· ایده اصلی: رقابت هنرمند و منتقد· مولد (Generator): هنرمندی که آثار جعلی میسازد· متمایزگر (Discriminator): منتقدی که اصل را از تقلید تشخیص میدهد· مینیمکس بازی (Minimax Game): رقابتی که به تعادل میرسد
۴. پیادهسازی GAN از پایه برای تولید تصاویر MNIST
# پیادهسازی GAN با TensorFlow/Keras
import tensorflow as tf
from tensorflow.keras import layers
import numpy as np
import matplotlib.pyplot as plt
# Generator
def build_generator(latent_dim):
model = tf.keras.Sequential([
layers.Dense(256, input_dim=latent_dim),
layers.LeakyReLU(alpha=0.2),
layers.BatchNormalization(),
layers.Dense(512),
layers.LeakyReLU(alpha=0.2),
layers.BatchNormalization(),
layers.Dense(1024),
layers.LeakyReLU(alpha=0.2),
layers.BatchNormalization(),
layers.Dense(28 * 28 * 1, activation='tanh'),
layers.Reshape((28, 28, 1))
])
return model
# Discriminator
def build_discriminator(img_shape):
model = tf.keras.Sequential([
layers.Flatten(input_shape=img_shape),
layers.Dense(512),
layers.LeakyReLU(alpha=0.2),
layers.Dense(256),
layers.LeakyReLU(alpha=0.2),
layers.Dense(1, activation='sigmoid')
])
return model
# ترکیب مدلها
latent_dim = 100
img_shape = (28, 28, 1)
generator = build_generator(latent_dim)
discriminator = build_discriminator(img_shape)
# Compile Discriminator
discriminator.compile(loss='binary_crossentropy',
optimizer=tf.keras.optimizers.Adam(0.0002, 0.5),
metrics=['accuracy'])
# Combined model (Generator -> Discriminator)
discriminator.trainable = False
gan_input = layers.Input(shape=(latent_dim,))
img = generator(gan_input)
validity = discriminator(img)
gan = tf.keras.Model(gan_input, validity)
gan.compile(loss='binary_crossentropy', optimizer=tf.keras.optimizers.Adam(0.0002, 0.5))
۵. انواع پیشرفته GANs
· DCGAN: GAN با کانولوشن برای تصاویر با کیفیت· CycleGAN: تبدیل سبک بدون جفت داده· StyleGAN: کنترل دقیق بر ویژگیهای تصویر· WGAN: بهبود پایداری آموزش
۶. مدلهای مبتنی بر Diffusion
· اصول Diffusion Models· فرآیند Forward و Reverse· معرفی Stable Diffusion و DALL-E 2· مقایسه GANs vs Diffusion Models
۷. Variational Autoencoders (VAEs)
· معماری Encoder-Decoder· فضای نهفته احتمالی· کاربرد در تولید چهرههای جدید
۸. کاربردهای عملی و اخلاقی
· تولید هنر دیجیتال و موسیقی· دادهسازی مصنوعی برای تحقیقات پزشکی· Deepfakes و چالشهای اخلاقی· مالکیت معنوی آثار تولیدشده توسط AI
---
ساخت سیستم تولید چهرههای انسانی با StyleGAN2
· استفاده از دیتاست CelebA· آموزش بر روی Google Colab با GPU· کنترل ویژگیها: سن، ژست، مو، رنگ چشم· ایجاد انیمیشن انتقال بین چهرهها
---
· زمان: پنجشنبه ۱۶ تیر، ساعت ۱۸ الی ۲۱:۳۰· مدت: ۳٫۵ ساعت (طولانیترین و غنیترین جلسه)· پیشنیاز: جلسات CNN (جلسه ۷) و مبانی Deep Learning· حضور: آنلاین + پشتیبانی ویژه پروژه
---
# نصب کتابخانههای تخصصی
pip install tensorflow-gpu
pip install torch torchvision
pip install diffusers transformers
pip install matplotlib imageio ipywidgets
حداقل سیستم مورد نیاز:
· GPU با ۸GB VRAM (برای آموزش مدل کامل)· یا استفاده از Google Colab Pro
---
۶:۵۵
ع تکمیلی:
۱. مقاله اصلی GAN (2014) - Ian Goodfellow۲. کتاب "Generative Deep Learning"۳. دوره "How Diffusion Models Work" - DeepLearning.AI۴. وبسایت "This Person Does Not Exist"
بخش پرسش و پاسخ:
سوال: آیا مدلهای مولد میتوانند متن تولید کنند؟پاسخ: بله! GPTها نوعی مدل مولد متنی هستند.
سوال: تفاوت اصلی GAN و Diffusion چیست؟پاسخ: GAN رقابتی است، Diffusion فرآیند تدریجی نویززدایی.
سوال: آیا تولید تصاویر با AI جای هنرمندان را میگیرد؟پاسخ: خیر، این ابزار جدیدی در دست هنرمندان است، نه جایگزین آنها.
چالش هنری این هفته:
مسابقه "آینده را تصور کن"

· موضوع: تهران در سال ۲۱۰۰· ابزار: هر مدل مولد دلخواه· معیارها: خلاقیت، فنیبودن، داستانپردازی· جوایز: · نفر اول: نمایش در گالری هنری دیجیتال + ۲ میلیون تومان · نفر دوم: تبلت گرافیکی · ۱۰ نفر برتر: نمایش در نمایشگاه مجازی
امروز نه تنها کدنویس میشویم، بلکه با هوش مصنوعی همآفرین میشویم. 
۱. مقاله اصلی GAN (2014) - Ian Goodfellow۲. کتاب "Generative Deep Learning"۳. دوره "How Diffusion Models Work" - DeepLearning.AI۴. وبسایت "This Person Does Not Exist"
سوال: آیا مدلهای مولد میتوانند متن تولید کنند؟پاسخ: بله! GPTها نوعی مدل مولد متنی هستند.
سوال: تفاوت اصلی GAN و Diffusion چیست؟پاسخ: GAN رقابتی است، Diffusion فرآیند تدریجی نویززدایی.
سوال: آیا تولید تصاویر با AI جای هنرمندان را میگیرد؟پاسخ: خیر، این ابزار جدیدی در دست هنرمندان است، نه جایگزین آنها.
مسابقه "آینده را تصور کن"
· موضوع: تهران در سال ۲۱۰۰· ابزار: هر مدل مولد دلخواه· معیارها: خلاقیت، فنیبودن، داستانپردازی· جوایز: · نفر اول: نمایش در گالری هنری دیجیتال + ۲ میلیون تومان · نفر دوم: تبلت گرافیکی · ۱۰ نفر برتر: نمایش در نمایشگاه مجازی
۶:۵۵