الگوریتمهای پیشنهادی
کاربرد: مدلسازی روابط خطی بین ویژگیها و هدف (قیمت).مزایا: سریع و آسان برای پیادهسازی.معایب: در دادههای غیرخطی کارایی کمتری دارد.
کاربرد: ایجاد مجموعهای از درختهای تصمیمگیری برای پیشبینی.مزایا: مقاوم به نویز و قابلیت پیشبینی دقیقتر.معایب: زمانبر برای دادههای بزرگ.
کاربرد: پیشبینی دادههای پیچیده و غیرخطی.مزایا: قابلیت یادگیری الگوهای پیچیده.معایب: نیاز به منابع محاسباتی بالا و تنظیمات دقیق.
کاربرد: بهبود دقت پیشبینی با ترکیب مدلهای ضعیف.مزایا: عملکرد بسیار بالا در دادههای ساختاریافته.معایب: پیچیدگی در تنظیم هایپرپارامترها.کتابخانههای کلیدی در Python
مناسب برای الگوریتمهای کلاسیک مثل رگرسیون و جنگل تصادفی.قابلیت ارزیابی مدل با معیارهای مختلف.
ابزار قدرتمند برای ساخت شبکههای عصبی.مناسب برای دادههای پیچیده و مدلهای سفارشی.
الگوریتمهای پیشرفته برای مسائل رگرسیون و طبقهبندی.دقت بالا با قابلیت مدیریت دادههای حجیم.
پیشپردازش دادهها و انجام محاسبات ریاضی.مناسب برای تحلیل داده و مدیریت دیتاستها.کاربردهای واقعی پروژه پیشبینی قیمت
۱۶:۳۲
پ.ن: برید عکس اکستون رو بندازید توش بلا سرش بیارید
آموزش های هوش مصنوعی
۶:۱۲
با سلام و ادب
سایتهای جذاب برای آموزش هوش مصنوعی به کودکان
برای اینکه کودکان از همان سنین پایین با دنیای هیجانانگیز هوش مصنوعی آشنا شوند، سایتهای آموزشی متنوعی طراحی شده است. این سایتها به کودکان کمک میکنند تا مفاهیم پیچیده را به صورت ساده و بازیگوش یاد بگیرند. در اینجا چند نمونه از این سایتها را به شما معرفی میکنیم:
1. Machine Learning for Kidsاین سایت به کودکان اجازه میدهد تا با انجام پروژههای عملی، مفاهیم اولیه یادگیری ماشین را درک کنند. آنها میتوانند مدلهای یادگیری ماشین سادهای بسازند و با آنها تعامل کنند.
2. Experiments with Googleگوگل آزمایشگاههای جذابی را برای کودکان طراحی کرده که به آنها اجازه میدهد با مفاهیم هوش مصنوعی بازی کنند و آزمایش کنند. این آزمایشها به صورت تعاملی و جذاب طراحی شدهاند.
3. مدرسه جهانی هوش مصنوعی - AI World Schoolاین مدرسه آنلاین دورههای مختلفی را برای کودکان در سنین مختلف ارائه میدهد. آنها با استفاده از روشهای آموزشی جذاب و بازیگوش، مفاهیم هوش مصنوعی را به کودکان آموزش میدهند.
4. AI4K12این سایت به کودکان کمک میکند تا با انجام پروژههای مختلف، مهارتهای خود در زمینه هوش مصنوعی را تقویت کنند. آنها میتوانند با استفاده از ابزارهای مختلف، پروژههای خود را اجرا کنند.
5. Scratchاگرچه Scratch بیشتر برای آموزش برنامهنویسی به کودکان شناخته شده است، اما میتوان از آن برای ایجاد پروژههای ساده مبتنی بر هوش مصنوعی نیز استفاده کرد.
نکات مهم برای والدین: همراهی با کودک: همراهی والدین در فرایند یادگیری کودک بسیار مهم است. میتوانید با هم پروژههای سایت را انجام دهید و به سوالات کودک پاسخ دهید.
صبر و حوصله: یادگیری هوش مصنوعی نیاز به زمان و تمرین دارد. صبور باشید و به کودک اجازه دهید با سرعت خودش پیشرفت کند.* تشویق و ایجاد انگیزه: با تشویق و ایجاد انگیزه در کودک، میتوانید علاقه او را به یادگیری هوش مصنوعی بیشتر کنید.با استفاده از این سایتها، کودکان میتوانند به صورت سرگرمکننده و جذاب با مفاهیم پیچیده هوش مصنوعی آشنا شوند و برای آیندهای روشن آماده شوند.
برای اینکه کودکان از همان سنین پایین با دنیای هیجانانگیز هوش مصنوعی آشنا شوند، سایتهای آموزشی متنوعی طراحی شده است. این سایتها به کودکان کمک میکنند تا مفاهیم پیچیده را به صورت ساده و بازیگوش یاد بگیرند. در اینجا چند نمونه از این سایتها را به شما معرفی میکنیم:
1. Machine Learning for Kidsاین سایت به کودکان اجازه میدهد تا با انجام پروژههای عملی، مفاهیم اولیه یادگیری ماشین را درک کنند. آنها میتوانند مدلهای یادگیری ماشین سادهای بسازند و با آنها تعامل کنند.
2. Experiments with Googleگوگل آزمایشگاههای جذابی را برای کودکان طراحی کرده که به آنها اجازه میدهد با مفاهیم هوش مصنوعی بازی کنند و آزمایش کنند. این آزمایشها به صورت تعاملی و جذاب طراحی شدهاند.
3. مدرسه جهانی هوش مصنوعی - AI World Schoolاین مدرسه آنلاین دورههای مختلفی را برای کودکان در سنین مختلف ارائه میدهد. آنها با استفاده از روشهای آموزشی جذاب و بازیگوش، مفاهیم هوش مصنوعی را به کودکان آموزش میدهند.
4. AI4K12این سایت به کودکان کمک میکند تا با انجام پروژههای مختلف، مهارتهای خود در زمینه هوش مصنوعی را تقویت کنند. آنها میتوانند با استفاده از ابزارهای مختلف، پروژههای خود را اجرا کنند.
5. Scratchاگرچه Scratch بیشتر برای آموزش برنامهنویسی به کودکان شناخته شده است، اما میتوان از آن برای ایجاد پروژههای ساده مبتنی بر هوش مصنوعی نیز استفاده کرد.
نکات مهم برای والدین: همراهی با کودک: همراهی والدین در فرایند یادگیری کودک بسیار مهم است. میتوانید با هم پروژههای سایت را انجام دهید و به سوالات کودک پاسخ دهید.
صبر و حوصله: یادگیری هوش مصنوعی نیاز به زمان و تمرین دارد. صبور باشید و به کودک اجازه دهید با سرعت خودش پیشرفت کند.* تشویق و ایجاد انگیزه: با تشویق و ایجاد انگیزه در کودک، میتوانید علاقه او را به یادگیری هوش مصنوعی بیشتر کنید.با استفاده از این سایتها، کودکان میتوانند به صورت سرگرمکننده و جذاب با مفاهیم پیچیده هوش مصنوعی آشنا شوند و برای آیندهای روشن آماده شوند.
۱۱:۴۰
نکات طلایی برای بهبود عملکرد مدلهای دیپ لرنینگ
برای رسیدن به بهترین عملکرد در مدلهای دیپ لرنینگ، علاوه بر استفاده از بهینهسازها و تکنیکهای کلاسیک، میتوانید از این ترفندهای پیشرفته بهره ببرید:
استفاده از Transfer Learning:مدلهای از پیش آموزشدیده مانند ResNet یا BERT میتوانند نقطه شروع مناسبی باشند، بهخصوص زمانی که دادههای شما محدود است. 
استفاده از Dropout برای کاهش Overfitting:استفاده از Dropout در لایههای Dense یا Convolutional باعث میشود مدل شما تعمیمپذیرتر شود. یک مقدار معمول برای Dropout بین 0.3 تا 0.5 است. 
کاربرد Normalization
Batch Normalization: برای سرعت بخشیدن به همگرایی و جلوگیری از تغییرات داخلی توزیع دادهها.Layer Normalization: مخصوص شبکههای Recurrent و Transformer.
استفاده از Augmentation برای دادهها:تکنیکهای Data Augmentation مانند چرخش، تغییر روشنایی، یا برش تصادفی تصویر باعث افزایش تنوع دادهها و بهبود عملکرد مدل میشوند. 
کاهش مصرف حافظه با Mixed Precision Training:استفاده از دقت نیمهصحیح (FP16) به جای دقت کامل (FP32) برای کاهش زمان آموزش و مصرف حافظه.
️
کاربرد Early Stopping:با مانیتور کردن خطا روی مجموعه اعتبارسنجی (Validation Loss) میتوانید آموزش را متوقف کنید تا از Overfitting جلوگیری شود.
پیشنهاد کتابخانه:
TensorFlow/Keras: ابزارهایی مانند ImageDataGenerator برای Data Augmentation.PyTorch: پیادهسازی آسان Transfer Learning و Mixed Precision Training.
کد کاربردی برای استفاده از Dropout و Data Augmentation در PyTorch آورده شده استimport torchimport torch.nn as nnimport torch.optim as optimfrom torchvision import transforms, datasetsfrom torch.utils.data import DataLoader
class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() self.conv1 = nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1) self.conv2 = nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1) self.fc1 = nn.Linear(32 8 8, 128) self.fc2 = nn.Linear(128, 10) self.dropout = nn.Dropout(0.5)
def forward(self, x): x = torch.relu(self.conv1(x)) x = torch.relu(self.conv2(x)) x = torch.flatten(x, 1) x = self.dropout(torch.relu(self.fc1(x))) x = self.fc2(x) return x
transform = transforms.Compose([ transforms.RandomHorizontalFlip(), transforms.RandomCrop(32, padding=4), transforms.ColorJitter(brightness=0.2, contrast=0.2), transforms.ToTensor(),])
train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
model = SimpleCNN()criterion = nn.CrossEntropyLoss()optimizer = optim.Adam(model.parameters(), lr=0.001)
for epoch in range(5): total_loss = 0 for images, labels in train_loader: optimizer.zero_grad() outputs = model(images) loss = criterion(outputs, labels) loss.backward() optimizer.step() total_loss += loss.item()
print(f"Epoch [{epoch+1}/5], Loss: {total_loss/len(train_loader):.4f}")
print("Training complete!")
Batch Normalization: برای سرعت بخشیدن به همگرایی و جلوگیری از تغییرات داخلی توزیع دادهها.Layer Normalization: مخصوص شبکههای Recurrent و Transformer.
TensorFlow/Keras: ابزارهایی مانند ImageDataGenerator برای Data Augmentation.PyTorch: پیادهسازی آسان Transfer Learning و Mixed Precision Training.
کد کاربردی برای استفاده از Dropout و Data Augmentation در PyTorch آورده شده استimport torchimport torch.nn as nnimport torch.optim as optimfrom torchvision import transforms, datasetsfrom torch.utils.data import DataLoader
class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() self.conv1 = nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1) self.conv2 = nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1) self.fc1 = nn.Linear(32 8 8, 128) self.fc2 = nn.Linear(128, 10) self.dropout = nn.Dropout(0.5)
def forward(self, x): x = torch.relu(self.conv1(x)) x = torch.relu(self.conv2(x)) x = torch.flatten(x, 1) x = self.dropout(torch.relu(self.fc1(x))) x = self.fc2(x) return x
transform = transforms.Compose([ transforms.RandomHorizontalFlip(), transforms.RandomCrop(32, padding=4), transforms.ColorJitter(brightness=0.2, contrast=0.2), transforms.ToTensor(),])
train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
model = SimpleCNN()criterion = nn.CrossEntropyLoss()optimizer = optim.Adam(model.parameters(), lr=0.001)
for epoch in range(5): total_loss = 0 for images, labels in train_loader: optimizer.zero_grad() outputs = model(images) loss = criterion(outputs, labels) loss.backward() optimizer.step() total_loss += loss.item()
print(f"Epoch [{epoch+1}/5], Loss: {total_loss/len(train_loader):.4f}")
print("Training complete!")
۱۴:۴۷
احتمالا توی سال های آینده استفاده از هوش مصنوعی کمتر میشه
یادمه وقتی چند سال پیش بلاک چین وایرال شده بود همه پروژه هاشونو داشتن یجوری به بلاک چین ربط میدادن و به سمت غیر متمرکز بودن میبردنش در صورتی که اصلا نیازی به غیر متمرکز سازی نبود و فقط از روی هیجان این کار انجام میشد.
چند سال اخیر استفاده های هیجانی هوش مصنوعی به شدت زیاد شده مثلا احتمالا اگه ویندوز داشته باشید و یه جا شانسی کلیک کنید Copilot باز میشه یا وسط یه سرچ ساده گوگل یهو Gemini احتمالا بیاد و اظهار نظر کنه، یا وسط خرید از فروشگاه اینترنتی یا استفاده از یه تاکسی آنلاین، چت کردن با یه GPT نشون میده که بسیار هیجانی داره از هوش مصنوعی استفاده میشه.
این استفاده هیجانی و شدید داره الگوی تکراری دانینگ کروگر رو نشون میده، در واقع ما روی اوج حماقتیم که البته بعد از مدتی که نسبت دانش به اعتماد به نفسمون بالا بره تازه شروع میکنیم به سمت رفتن روی شیب روشنگری و بهترین استفاده از هوش مصنوعی.
یادمه وقتی چند سال پیش بلاک چین وایرال شده بود همه پروژه هاشونو داشتن یجوری به بلاک چین ربط میدادن و به سمت غیر متمرکز بودن میبردنش در صورتی که اصلا نیازی به غیر متمرکز سازی نبود و فقط از روی هیجان این کار انجام میشد.
چند سال اخیر استفاده های هیجانی هوش مصنوعی به شدت زیاد شده مثلا احتمالا اگه ویندوز داشته باشید و یه جا شانسی کلیک کنید Copilot باز میشه یا وسط یه سرچ ساده گوگل یهو Gemini احتمالا بیاد و اظهار نظر کنه، یا وسط خرید از فروشگاه اینترنتی یا استفاده از یه تاکسی آنلاین، چت کردن با یه GPT نشون میده که بسیار هیجانی داره از هوش مصنوعی استفاده میشه.
این استفاده هیجانی و شدید داره الگوی تکراری دانینگ کروگر رو نشون میده، در واقع ما روی اوج حماقتیم که البته بعد از مدتی که نسبت دانش به اعتماد به نفسمون بالا بره تازه شروع میکنیم به سمت رفتن روی شیب روشنگری و بهترین استفاده از هوش مصنوعی.
۴:۴۴
۸:۳۱
آموزش بهینهسازی مدلها (Optimization)هنر بهینهسازی در دیپ لرنینگ
بهینهسازی یکی از مراحل کلیدی در یادگیری عمیق است که تاثیر مستقیمی بر دقت و عملکرد مدل دارد.
AdamW:نسخه بهینهسازی شده Adam که به دلیل افزودن weight decay، به تعادل بهتری در بهروزرسانی وزنها میرسد. این روش برای بسیاری از معماریهای پیشرفته دیپ لرنینگ توصیه میشود.
Learning Rate Scheduler:استفاده از یک برنامهریز برای تنظیم نرخ یادگیری (Learning Rate) طی مراحل آموزش، کمک میکند تا مدل سریعتر به حداقلهای مطلوب برسد و از گیر افتادن در کمینههای محلی جلوگیری شود.
Cyclic Learning Rate (CLR):این تکنیک به شما اجازه میدهد که نرخ یادگیری را بین مقادیر مشخصی به صورت دورهای تغییر دهید. این کار باعث بهبود عملکرد مدل در زمان کوتاهتر میشود.
ترفند:
برای شروع میتوانید از OneCycleLR در PyTorch استفاده کنید که یک پیادهسازی موثر از CLR است.همیشه Learning Rate Finder را برای تعیین بهترین نرخ یادگیری اجرا کنید.
پیشنهاد کتابخانه:
PyTorch (torch.optim): یکی از جامعترین ابزارها برای استفاده از بهینهسازها و تنظیمات پیشرفته.TensorFlow (tf.keras.optimizers): شامل ابزارهایی برای بهینهسازی نرخ یادگیری به همراه دیگر تکنیکها.
یک نمونه کد کاربردی برای بهینهسازی مدل با استفاده از تکنیکهای مختلف در PyTorch آورده شده است. این کد شامل استفاده از AdamW و یک Learning Rate Scheduler است:import torchimport torch.nn as nnimport torch.optim as optimfrom torch.optim.lr_scheduler import OneCycleLRimport matplotlib.pyplot as plt
class SimpleModel(nn.Module): def __init__(self): super(SimpleModel, self).__init__() self.fc = nn.Linear(10, 1)
def forward(self, x): return self.fc(x)
model = SimpleModel()criterion = nn.MSELoss()optimizer = optim.AdamW(model.parameters(), lr=0.01, weight_decay=0.01)
scheduler = OneCycleLR(optimizer, max_lr=0.1, steps_per_epoch=10, epochs=3)
x = torch.randn(100, 10)y = torch.randn(100, 1)
losses = []lrs = []for epoch in range(3): for i in range(10): optimizer.zero_grad() outputs = model(x[i*10:(i+1)*10]) loss = criterion(outputs, y[i*10:(i+1)*10]) loss.backward() optimizer.step() scheduler.step()
lrs.append(scheduler.get_last_lr()[0]) losses.append(loss.item())
plt.figure(figsize=(8, 5))plt.plot(lrs, label='Learning Rate')plt.xlabel('Iterations')plt.ylabel('Learning Rate')plt.title('Cyclic Learning Rate')plt.legend()plt.show()
کانال یادگیری هوش مصنوعی شارون
AdamW:نسخه بهینهسازی شده Adam که به دلیل افزودن weight decay، به تعادل بهتری در بهروزرسانی وزنها میرسد. این روش برای بسیاری از معماریهای پیشرفته دیپ لرنینگ توصیه میشود.
Learning Rate Scheduler:استفاده از یک برنامهریز برای تنظیم نرخ یادگیری (Learning Rate) طی مراحل آموزش، کمک میکند تا مدل سریعتر به حداقلهای مطلوب برسد و از گیر افتادن در کمینههای محلی جلوگیری شود.
Cyclic Learning Rate (CLR):این تکنیک به شما اجازه میدهد که نرخ یادگیری را بین مقادیر مشخصی به صورت دورهای تغییر دهید. این کار باعث بهبود عملکرد مدل در زمان کوتاهتر میشود.
برای شروع میتوانید از OneCycleLR در PyTorch استفاده کنید که یک پیادهسازی موثر از CLR است.همیشه Learning Rate Finder را برای تعیین بهترین نرخ یادگیری اجرا کنید.
PyTorch (torch.optim): یکی از جامعترین ابزارها برای استفاده از بهینهسازها و تنظیمات پیشرفته.TensorFlow (tf.keras.optimizers): شامل ابزارهایی برای بهینهسازی نرخ یادگیری به همراه دیگر تکنیکها.
یک نمونه کد کاربردی برای بهینهسازی مدل با استفاده از تکنیکهای مختلف در PyTorch آورده شده است. این کد شامل استفاده از AdamW و یک Learning Rate Scheduler است:import torchimport torch.nn as nnimport torch.optim as optimfrom torch.optim.lr_scheduler import OneCycleLRimport matplotlib.pyplot as plt
class SimpleModel(nn.Module): def __init__(self): super(SimpleModel, self).__init__() self.fc = nn.Linear(10, 1)
def forward(self, x): return self.fc(x)
model = SimpleModel()criterion = nn.MSELoss()optimizer = optim.AdamW(model.parameters(), lr=0.01, weight_decay=0.01)
scheduler = OneCycleLR(optimizer, max_lr=0.1, steps_per_epoch=10, epochs=3)
x = torch.randn(100, 10)y = torch.randn(100, 1)
losses = []lrs = []for epoch in range(3): for i in range(10): optimizer.zero_grad() outputs = model(x[i*10:(i+1)*10]) loss = criterion(outputs, y[i*10:(i+1)*10]) loss.backward() optimizer.step() scheduler.step()
lrs.append(scheduler.get_last_lr()[0]) losses.append(loss.item())
plt.figure(figsize=(8, 5))plt.plot(lrs, label='Learning Rate')plt.xlabel('Iterations')plt.ylabel('Learning Rate')plt.title('Cyclic Learning Rate')plt.legend()plt.show()
۱۶:۱۴
با این ۶ هوش مصنوعی شگفتانگیز، دنیای خلاقیت و نوآوری را به سطح جدیدی ببرید! 
Magnific:
کیفیت عکسهایتان را به طرز چشمگیری افزایش دهید و جزئیات را به وضوح ببینید.
Snapedit:
اشیا اضافه و ناخواسته را از تصاویر خود حذف کنید و تصاویری بینقص بسازید.
Magic Eraser:
بکگراندهای غیرضروری را پاک کنید و تمرکز را بر روی سوژه اصلی بگذارید.
Hitpaw:
صدای خود را تغییر دهید و به ویدیوهایتان جانی تازه ببخشید!
Gemini:
ایدههای خلاقانه و نوآورانه را با این ابزار جستجو کنید و الهام بگیرید.
Domo:
ویدیوهای خود را به انیمههای جذاب و دیدنی تبدیل کنید و دنیای جدیدی از هنر را تجربه کنید.
با این ابزارها، خلاقیت شما هیچ حد و مرزی نخواهد داشت!

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
با این ابزارها، خلاقیت شما هیچ حد و مرزی نخواهد داشت!
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
۲:۰۴
۶:۵۱
.
امشب شب میلاد امام علی (ع) است؛ شب عشق، عدالت و سخاوت.

این شب پر برکت رو به شما عزیزان تبریک میگویم و امیدوارم که همیشه با انرژی مثبت و امید به پیشرفت در کنار هم باشیم.
میلاد امام علی (ع) بر شما مبارک باد!
امشب شب میلاد امام علی (ع) است؛ شب عشق، عدالت و سخاوت.
این شب پر برکت رو به شما عزیزان تبریک میگویم و امیدوارم که همیشه با انرژی مثبت و امید به پیشرفت در کنار هم باشیم.
میلاد امام علی (ع) بر شما مبارک باد!
۱۶:۰۸
+ اگه خوشت اومد یه قلب این پایین بنداز
۶:۰۸
۱۵:۵۱
یک هوش مصنوعی پیشرفته است که توسط شرکت چینی DeepSeek توسعه یافته و بهعنوان رقیبی برای ابزارهای معروفی مانند ChatGPT و Claude شناخته میشه.
۱. دقت و سرعت بالا : مدل DeepSeek با استفاده از الگوریتمها بهینه، توانسته در زمینههای مختلف عملکردی برجسته ارائه دهد.
۲. رابط کاربری کاربرپسند: با طراحی ساده و کاربرپسند، تجربهای راحت برای کاربران فراهم کرده
۴:۴۹
1. Syllaby.io
2. Kickresume.com
3. Monica.ai
4. Aivalley.ai
5. Insidr.ai
#هوش_مصنوعی #ابزار_هوش_مصنوعی
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
۱۳:۳۵
۶ ابزار هوش مصنوعی فوقالعاده برای گوشی شما
میخوای محتوای حرفهای بسازی؟
این ۶ تا اپلیکیشن بهت کمک میکنن تا عکسها و ویدیوهای بینظیری خلق کنی! 
ساخت و ادیت عکس - Photoleapدانلود از گوگل پلی
ساخت و ادیت ویدیو - Videoleapدانلود از گوگل پلی
ساخت مدل سه بعدی - Luma AIدانلود از گوگل پلی
ادیت و روتوش عکس - Peachyدانلود از گوگل پلی
افزایش کیفیت ویدیو - Winkitدانلود از گوگل پلی
ساخت کاراکتر سخنگو - Dream Faceدانلود از گوگل پلی
برای داشتن یه محتوای جذابتر و حرفهایتر، همین الان این ابزارها رو نصب کن!
۱۹:۰۶
مرکز نوآوری و فناوری دانشگاه صنعتی شریف برگزار میکند:
«دوره آموزشی آشنایی با فناوری های هوش مصنوعی»
مرکز نوآوری و فناوری شریف با افتخار دورهای بینظیر را برای دانشآموزان برگزار میکند. اگر علاقهمند به کشف دنیای فناوریهای پیشرفته و ساختن آیندهای روشن هستید، این دوره برای شماست.
تاریخ شروع: ۱۴ بهمن ۱۴۰۳مدت زمان دوره: 12 ساعت
ویژگی های دوره:-آموزش به صورت آنلاین و آفلاین-دریافت گواهینامه دوزبانه معتبر از دانشگاه صنعتی شریف-فرصت حضور در دورههای پیشرفته برای دانشآموزان پذیرفته شده در آزمونلینک پیش ثبت :https://sharif.porsline.ir/s/YRh7u1gy
«دوره آموزشی آشنایی با فناوری های هوش مصنوعی»
مرکز نوآوری و فناوری شریف با افتخار دورهای بینظیر را برای دانشآموزان برگزار میکند. اگر علاقهمند به کشف دنیای فناوریهای پیشرفته و ساختن آیندهای روشن هستید، این دوره برای شماست.
ویژگی های دوره:-آموزش به صورت آنلاین و آفلاین-دریافت گواهینامه دوزبانه معتبر از دانشگاه صنعتی شریف-فرصت حضور در دورههای پیشرفته برای دانشآموزان پذیرفته شده در آزمونلینک پیش ثبت :https://sharif.porsline.ir/s/YRh7u1gy
۱۸:۲۶
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
۱۱:۳۳
#اینفوگرافیک #هوش_مصنوعی
۱۲:۴۹
این کد با استفاده از کتابخانه DeepFace و OpenCV احساسات چهره را از طریق دوربین تشخیص میده. در اینجا یک توضیح مرحلهبهمرحله از عملکرد کد برای شما ارائه شده :
برای فعالسازی دوربین
ایجاد متغیرهای مربوط به احساسات :سه متغیر sad، happy و angry برای شمارش تعداد دفعاتی که هر احساس تشخیص داده میشود.
حلقه پردازش و تشخیص احساسات تصویر دریافتشده از دوربین را پردازش میکند
import cv2from deepface import DeepFace
cap = cv2.VideoCapture(0)
how_many_time = []sad = 0happy = 0angry = 0
while cap.isOpened(): ret, frame = cap.read() if not ret: break
try: analysis = DeepFace.analyze(frame, actions=['emotion'], enforce_detection=False) emotion = analysis[0]['dominant_emotion'] cv2.putText(frame, f"Emotion: {emotion}", (50, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2) if emotion == 'sad': sad = sad + 1 elif emotion == 'happy': happy = happy + 1 elif emotion == 'angry': angry = angry + 1 except: pass
cv2.imshow("Emotion Detection", frame) if cv2.waitKey(1) & 0xFF == ord('q'): break
cap.release()cv2.destroyAllWindows()print(f'angry => {angry}')print(f'happy => {happy}')print(f'sad => {sad}')
۵:۴۰