بله | کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی
عکس پروفایل مهارت و آموزش فناوری اطلاعات و هوش مصنوعیم

مهارت و آموزش فناوری اطلاعات و هوش مصنوعی

۱۶۸ عضو
دوره های آموزشی انتخاب شده بر پایه مواردی است که در طول سال گذشته به عنوان آموزش در این کانال ارائه شده است. پیشنهاد می شود در موضوعات ارائه شده، ابتدا متن بارگزاری شده و همچنین متن کامل آدرس URL و همچنین نمونه فیلم را ببینید تا میزان کاربردی بودن دوره را برای سطح خود تشخیص دهید و بعد نسبت به دانلود کل دوره اقدام نمایید. برای کدنویسی با ابزارهای هوش مصنوعی، ابزارهای داخلی در دسترس هستند و می توانید از آنها استفاده نمایید. به عنوان مثال در ابزار gapgpt ایرانی، امکان کدنویسی در ترمینال نیز فراهم است و مدل های خوبی به صورت آفلاین در دسترس هستند.

۱۰:۵۷

thumbnail
*خلاصه خبر:

در 8 آوریل 2026،
InfoWorld* گزارش داد که *Microsoft نسخه جدید Visual Studio Code 1.115 را منتشر کرده است که شامل یک اپلیکیشن همراه جدید به نام Visual Studio Code Agents می‌شود—طراحی‌شده برای توسعه‌دهندگانی که با عامل‌های هوش مصنوعی (AI agents) کار می‌کنند.

### ویژگی‌های کلیدی:

-
VS Code Agents App (در حالت پیش‌نمایش):
- اجازه اجرای
چندین session عامل به‌صورت موازی در چندین مخزن (repo) را می‌دهد.
- توسعه‌دهنده می‌تواند پیشرفت sessionها را ردیابی کند، تفاوت‌ها (diffs) را مستقیماً مشاهده کند، بازخورد بدهد و بدون خروج از اپلیکیشن، pull request ایجاد کند.
- از
دستورالعمل‌های سفارشی، فایل‌های prompt، عامل‌های شخصی‌سازی‌شده، سرورهای MCP (Model Context Protocol) و همچنین تم‌ها و تنظیمات VS Code پشتیبانی می‌کند.

-
بهبود تعامل با ترمینال:
- ابزار جدید
`send_to_terminal` به عامل‌ها اجازه می‌دهد حتی پس از timeout شدن یک session (مثل SSH)، همچنان دستورات را به ترمینال پس‌زمینه ارسال کنند.
- تنظیم آزمایشی جدید
`chat.tools.terminal.backgroundNotifications` عامل را هنگام اتمام دستور یا نیاز به ورودی کاربر، به‌صورت خودکار مطلع می‌کند—بدون نیاز به بررسی دستی وضعیت.

-
تجربه مرورگر و اسکریپت‌نویسی:
- ابزار
browser tool اکنون برچسب‌های توصیفی‌تری دارد و لینک مستقیم به تب هدف را فراهم می‌کند.
- ابزار
Run Playwright Code از اسکریپت‌های طولانی‌مدت (بیش از ۵ ثانیه) با سیستم poll بهتری پشتیبانی می‌کند.

### زمینه:
این نسخه بخشی از
تغییر سرعت انتشار VS Code است—که از ماهانه به هفتگی تغییر کرده است (از نسخه 1.111 در مارس 2026).

لینک کامل خبر:*
https://www.infoworld.com/article/4156169/visual-studio-code-1-115-introduces-vs-code-agents-app-2.html

کانال تازه ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News کانال تازه ترین اخبارهای حوزه امنیت_دفاع و پدافند سایبری در بله @cyber_warfare_monitorکانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۶:۱۹

thumbnail
*خلاصه خبر:

در 10 آوریل 2026،
TechSpot* گزارش داد که *قیمت‌های حافظه (RAM و SSD) پس از ماه‌ها افزایش شدید، بالاخره در حال کاهش هستند—اما هنوز برای بسیاری از مصرف‌کنندگان غیرقابل تحمل باقی مانده‌اند.

### جزئیات کلیدی:

-
کاهش قیمت‌ها:
- قیمت
DDR5 RAM در مارس 2026 حدود 12٪ نسبت به سقف خود در دسامبر 2025 کاهش یافته است.
- قیمت
SSDهای NVMe نیز حدود 8 تا 10٪ کاهش داشته‌اند.

-
دلیل کاهش:
- افزایش ظرفیت تولید توسط
Samsung، SK Hynix و Micron
- کاهش تقاضای کوتاه‌مدت از سوی برخی OEMها
- اما
تقاضای بلندمدت از سوی دیتاسنترهای AI همچنان بسیار بالاست.

-
هنوز غیرمقرون‌به‌صرفه:
- یک ماژول
32GB DDR5-6000 هنوز حدود 140 دلار قیمت دارد—بیش از دو برابر قیمت آن در سال 2024.
- یک SSD
2TB PCIe 4.0 هنوز حدود 180 دلار تمام می‌شود—در حالی که در سال 2024 زیر 100 دلار بود.

-
پیش‌بینی آینده:
- تحلیلگران معتقدند قیمت‌ها تا
اواخر 2026 یا اوایل 2027 به سطح عادی بازنمی‌گردند—مشروط بر اینکه تقاضای AI ثابت بماند و هیچ اختلال زنجیره تأمین جدیدی رخ ندهد.

### نتیجه‌گیری:
> «کاهش قیمت‌ها خبر خوبی است، اما هنوز دور از بازگشت به "عصر طلایی" حافظه ارزان است.»

لینک کامل خبر:*
https://www.techspot.com/news/112030-memory-prices-finally-falling-but-ram-remain-unaffordable.html
کانال تازه ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News کانال تازه ترین اخبارهای حوزه امنیت_دفاع و پدافند سایبری در بله @cyber_warfare_monitorکانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۶:۲۳

thumbnail
*خلاصه خبر:

در 10 آوریل 2026،
Phoronix* گزارش داد که *نسخه 7.0 هسته لینوکس (Linux Kernel) در آستانه انتشار است. این نسخه به‌دلیل رسیدن شماره فرعی به 6.19 و بر اساس سیاست جدید لینوس توروالدز—نه به‌خاطر تغییرات شکست‌آفرین—به نسخه اصلی 7.0 ارتقا یافته است.

### مهم‌ترین تغییرات:

-
Intel TSX:
پسوندهای همگام‌سازی تراکنشی Intel (TSX) اکنون به‌صورت پیش‌فرض در حالت
«auto» فعال می‌شوند—در صورتی که CPU از TSX پشتیبانی کند و مشکل امنیتی شناخته‌شده‌ای نداشته باشد. این تغییر، عملکرد out-of-the-box را بهبود می‌بخشد.

-
بهینه‌سازی‌های AMD EPYC:
شامل بهبودهایی در
مقیاس‌پذیری زمان‌بندی‌کننده (scheduler)، مدیریت حافظه و سایر بخش‌های هسته است که منجر به عملکرد بهتر روی سرورهای مبتنی بر AMD می‌شود.

-
پشتیبانی گرافیکی:
- فعال‌سازی اولیه برای
سخت‌افزارهای گرافیکی آینده AMD Radeon
- ادامه کار بر روی پشتیبانی از
گرافیک‌های Intel Crescent Island و Nova Lake

-
فایل‌سیستم‌ها:
-
XFS: قابلیت خود-تعمیری خودکار (autonomous self-healing)
-
EXT4: بهبود عملکرد نوشتن همزمان (concurrent direct I/O writes)

-
شبکه:
افزایش عملکرد
UDP با بهینه‌سازی درون‌خطی (inlining) یک تابع کلیدی.

-
پشتیبانی سخت‌افزاری:
ادامه کار بر روی
SoC Snapdragon X2 Elite از کوالکام برای لپ‌تاپ‌ها.

-
توسعه Rust:
آماده‌سازی برای
Rust 1.95 و بهبودهای بیشتر در کدهای Rust داخل هسته.

-
شخصی‌سازی:
گزینه‌های جدید Kconfig برای
جایگزینی لوگوی Tux با تصویر دلخواه در هنگام بوت سیستم.

لینک کامل خبر:*
https://www.phoronix.com/news/Linux-7.0-Changes

کانال تازه ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News کانال تازه ترین اخبارهای حوزه امنیت_دفاع و پدافند سایبری در بله @cyber_warfare_monitorکانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۶:۲۵

thumbnail
این یک راهنمای آموزشی و فشرده برای درک و استفاده از «داکر» (Docker) در پروژه‌های علوم داده و پایتون است.
---
## چرا داکر برای متخصصان داده ضروری است؟
در پروژه‌های پایتون، ما معمولاً با کتابخانه‌های زیادی سر و کار داریم (مثل `pandas`، `scikit-learn`، `tensorflow`). مشکل اصلی زمانی رخ می‌دهد که پروژه را به سیستم همکار یا سرور منتقل می‌کنید و به دلیل تفاوت نسخه‌های پایتون یا کتابخانه‌ها، پروژه اجرا نمی‌شود. داکر با ایجاد یک *«محیط ایزوله و قابل حمل»، این مشکل را برای همیشه حل می‌کند.

### مفاهیم کلیدی (مثل یک دستور پخت!)

برای شروع، باید ۳ مفهوم اصلی داکر را بدانید:

1.
Dockerfile (دستور پخت): یک فایل متنی ساده است که در آن می‌نویسید پروژه شما به چه پیش‌نیازهایی (مثل پایتون ۳.۹، نسخه‌های خاص کتابخانه‌ها و فایل‌های کد) نیاز دارد.
2.
Image (غذا/بسته نهایی): وقتی دستورات Dockerfile را اجرا می‌کنید، داکر یک «ایمیج» می‌سازد. این ایمیج یک فایل ثابت است که شامل کد و محیط اجرای شماست و هرگز تغییر نمی‌کند.
3.
Container (سرو غذا): وقتی ایمیج را اجرا می‌کنید، یک «کانتینر» ساخته می‌شود. کانتینر در واقع همان محیط در حال اجرای پروژه شماست.

---

## ساختار یک Dockerfile ساده (مثال آموزشی)

یک فایل به نام `Dockerfile` بسازید و این کدها را درون آن قرار دهید:

# ۱. انتخاب نسخه پایتون پایه
FROM python:3.9-slim

# ۲. تعیین پوشه کاری در کانتینر
WORKDIR /app

# ۳. کپی کردن فایل نیازمندی‌ها و نصب آن‌ها
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt

# ۴. کپی کردن تمام کدهای پروژه به کانتینر
COPY . .

# ۵. دستوری که هنگام اجرای کانتینر اجرا می‌شود
CMD ["python", "main.py"]

---

## گردش کار عملیاتی (۴ گام ساده)

بعد از ساخت Dockerfile، این مراحل را در ترمینال دنبال کنید:

*گام ۱: ساخت ایمیج
    docker build -t my-data-project .
    
(این دستور یک ایمیج با نام `my-data-project` می‌سازد).*

گام ۲: اجرای کانتینر
    docker run my-data-project
    
(این دستور پروژه را در محیطی ایزوله اجرا می‌کند).*

---
## نکته حیاتی برای دانشمندان داده: مدیریت داده‌ها (Volumes)
در علوم داده، شما با فایل‌های حجیم (CSV، مدل‌های آموزش‌دیده، تصاویر) سروکار دارید. اگر این‌ها را داخل کانتینر بگذارید، با حذف کانتینر، داده‌ها پاک می‌شوند.*راه حل: از Volumes استفاده کنید تا پوشه‌ای از سیستم‌عامل خود را به کانتینر «متصل» کنید:

docker run -v C:/my_data:/app/data my-data-project
(با این دستور، پوشه `my_data` در سیستم شما به پوشه `data` در داخل کانتینر وصل می‌شود؛ بنابراین هر تغییری در داده‌ها، در سیستم شما ذخیره می‌ماند).*

---
## جمع‌بندی آموزشی داکر جایگزین محیط مجازی (venv) نیست؛ بلکه مکملی است که محیط کامل (شامل سیستم‌عامل سبک) را برای شما شبیه‌سازی می‌کند.
*استفاده از Docker Compose:* اگر پروژه شما پیچیده است (مثلاً نیاز به دیتابیس در کنار اسکریپت پایتون دارید)، از فایل `docker-compose.yml` استفاده کنید تا هر دو سرویس را با یک دستور `docker-compose up` بالا بیاورید.

با استفاده از داکر، شما از دغدغه‌ی «روی سیستم من کار می‌کرد!» رها می‌شوید و پروژه‌هایتان در هر کامپیوتری (از لپ‌تاپ شخصی تا سرور ابری) دقیقاً مشابه اجرا خواهند شد.
https://www.kdnuggets.com/docker-for-python-data-projects-a-beginners-guide
کانال تازه ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News کانال تازه ترین اخبارهای حوزه امنیت_دفاع و پدافند سایبری در بله @cyber_warfare_monitorکانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۴:۳۰

برای دقت بالاتر، کامندها دوباره در ذیل بارگذاری شده اند :

۴:۳۰

# ۱. انتخاب نسخه پایتون پایهFROM python:3.9-slim
# ۲. تعیین پوشه کاری در کانتینرWORKDIR /app
# ۳. کپی کردن فایل نیازمندی‌ها و نصب آن‌هاCOPY requirements.txt .RUN pip install --no-cache-dir -r requirements.txt
# ۴. کپی کردن تمام کدهای پروژه به کانتینرCOPY . .
# ۵. دستوری که هنگام اجرای کانتینر اجرا می‌شودCMD ["python", "main.py"]

۴:۳۱

ساخت ایمیجdocker build -t my-data-project .
اجرای کانتینرdocker run my-data-project

۴:۳۲

thumbnail
این مقاله توضیح می‌دهد که چرا دوران «بوت دوگانه» (Dual-Booting) — یعنی نصب دو سیستم‌عامل در کنار هم و انتخاب یکی هنگام روشن کردن کامپیوتر — به پایان رسیده است و اکنون روش‌های بسیار بهتر، سریع‌تر و ایمن‌تری برای تجربه یک سیستم‌عامل جدید وجود دارد.
### چرا بوت دوگانه دیگر ایده خوبی نیست؟ اتلاف وقت و قطع تمرکز: هر بار جابجایی بین دو سیستم‌عامل مستلزم بستن تمام کارها و ری‌ستارت کردن سیستم است که باعث قطع جریان کاری (Workflow) می‌شود.
*خطرات فنی و امنیتی: تغییر اندازه پارتیشن‌های هارد و نصب لودرهای بوت دوم می‌تواند ریسک از دست رفتن داده‌ها یا از کار افتادن بوت ویندوز را (به‌خصوص بعد از آپدیت‌های ویندوز) به همراه داشته باشد.
*دنیای جداگانه فایل‌ها: دسترسی به فایل‌ها و تنظیمات یک سیستم‌عامل در دیگری همیشه ساده نیست و باعث سردرگمی می‌شود.

### جایگزین‌های مدرن و برتر:

۱.
ماشین‌های مجازی (Virtual Machines):
بهترین روش برای اکثر کاربران است. می‌توانید سیستم‌عامل دوم (مثل لینوکس) را در یک پنجره داخل ویندوز اجرا کنید؛ بدون نیاز به پارتیشن‌بندی یا ری‌ستارت کردن.

۲.
زیرسیستم ویندوز برای لینوکس (WSL):
اگر کاربر ویندوز هستید و فقط به ابزارهای لینوکس نیاز دارید، WSL به شما اجازه می‌دهد لینوکس را مستقیماً داخل ویندوز و با سرعت بسیار بالا اجرا کنید، بدون اینکه نیازی به نصب کامل سیستم‌عامل باشد.

۳.
درایوهای USB زنده (Live USB):
اگر می‌خواهید بدانید یک سیستم‌عامل روی سخت‌افزار واقعی شما چگونه کار می‌کند (تست درایورها و سرعت)، استفاده از یک فلش‌مموری بوت‌ابل بهترین راه است. هیچ تغییری در هارد شما ایجاد نمی‌شود و با کشیدن فلش، همه چیز به حالت اول برمی‌گردد.

۴.
استفاده از درایو ثانویه (SSD خارجی):
برای کسانی که به عملکرد واقعی (Native) نیاز دارند، نصب سیستم‌عامل دوم روی یک SSD جداگانه یا هارد اکسترنال بسیار ایمن‌تر از تقسیم کردن هارد اصلی سیستم است.

نتیجه‌گیری: بوت دوگانه مشکلی را حل می‌کند که امروزه با وجود ابزارهای مجازی‌سازی و WSL، دیگر برای اکثر کاربران وجود خارجی ندارد.

URL مقاله:*
https://www.howtogeek.com/you-dont-need-to-dual-boot-anymore-theres-a-better-way/
کانال تازه ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News کانال تازه ترین اخبارهای حوزه امنیت_دفاع و پدافند سایبری در بله @cyber_warfare_monitorکانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۴:۴۸

thumbnail
این مقاله از وبلاگ فنی انویدیا به بررسی استراتژی‌های بهینه‌سازی حافظه برای اجرای مدل‌های بزرگ هوش مصنوعی روی پلتفرم‌های لبه (Edge) مانند NVIDIA Jetson می‌پردازد. با توجه به محدودیت شدید حافظه در دستگاه‌های لبه (و اشتراک حافظه بین CPU و GPU)، این بهینه‌سازی‌ها برای اجرای پایدار و بلادرنگ مدل‌های چندمیلیارد پارامتری حیاتی هستند.
پشته نرم‌افزاری و لایه‌های بهینه‌سازی
مقاله بهینه‌سازی را در پنج لایه متوالی بررسی می‌کند و در هر لایه، میزان حافظه قابل بازیابی و روش آن را مشخص می‌کند.
۱. لایه بنیادین (BSP و JetPack SDK)هدف این لایه، آزادسازی حافظه رزرو شده برای سخت‌افزارها و سرویس‌های غیرضروری است.
· غیرفعال کردن رابط کاربری گرافیکی (GUI): تا ۸۶۵ مگابایت با دستور sudo systemctl set-default multi-user.target· غیرفعال کردن سرویس‌های شبکه و بی‌استفاده: تا ۳۲ مگابایت· بهینه‌سازی Carveout: مناطق رزرو شده حافظه برای موتورهای سخت‌افزاری خاص. اگر نیاز به نمایشگر و دوربین نباشد، می‌توان به ترتیب تا حدود ۶۸ مگابایت و ۳۳ مگابایت حافظه آزاد کرد.
۲. لایه خط لوله استنتاج (Inferencing Pipeline)مدیریت جریان داده از پیش‌پردازش تا پس‌پردازش. با تغییرات زیر می‌توان تا ۴۱۲ مگابایت صرفه‌جویی کرد:
· حذف کانتینر (اجرای BareMetal): ۷۰ مگابایت· تغییر از Python به C++: ۸۴ مگابایت· غیرفعال کردن مراحل نمایش (Tiler/OSD) و استفاده از FakeSink در خط لوله: ۲۵۸ مگابایت
۳. لایه فریمورک استنتاج (مثل vLLM و Llama.cpp)انتخاب فریمورک مناسب تأثیر زیادی دارد. برای محیط‌های محدود، Llama.cpp و TensorRT Edge-LLM بهینه‌ترین هستند. تنظیم پارامتر --gpu-memory-utilization در vLLM نیز می‌تواند کمک کند.
۴. لایه کوانتیزاسیون مدل (Model Quantization)کوانتیزاسیون مؤثرترین راه برای کاهش حافظه است.
· تبدیل مدل Qwen3 8B از FP16 به W4A16 (وزن ۴ بیتی) باعث صرفه‌جویی ۱۰ گیگابایت می‌شود.· تبدیل مدل Qwen3 4B از BF16 به INT4 باعث صرفه‌جویی ۵.۶ گیگابایت می‌شود.· نکته کلیدی: مقاله تأکید می‌کند که از بالاترین دقت شروع کنید و به تدریج دقت را کاهش دهید تا جایی که کیفیت مدل برای کاربرد شما قابل قبول باشد. در مجموع، با اعمال این بهینه‌سازی‌ها در همه لایه‌ها، ۱۰ تا ۱۲ گیگابایت صرفه‌جویی ممکن است.
نمونه عملی (Reachy Mini Jetson Assistant)
یک ربات دستیار مکالمه‌محور با استفاده از Jetson Orin Nano 8 گیگابایت (بدون اتصال به ابر) ساخته شده است. با اعمال این بهینه‌سازی‌ها (کوانتیزاسیون ۴ بیتی، حذف GUI، استفاده از Llama.cpp به جای فریمورک‌های سنگین‌تر)، یک خط لوله چندوجهی شامل مدل زبان-بینایی (VLM)، تشخیص گفتار (Whisper) و تبدیل متن به گفتار (TTS) به طور همزمان روی این دستگاه با حافظه محدود اجرا می‌شود.
آدرس کامل مقاله:https://developer.nvidia.com/blog/maximizing-memory-efficiency-to-run-bigger-models-on-nvidia-jetson/
کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News
کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله@cyber_warfare_monitor
کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۵:۰۵

thumbnail
این مقاله از MIT Technology Review به مروری تاریخی بر انقلاب اخیر در نحوه یادگیری ربات‌ها می‌پردازد. برخلاف گذشته که ربات‌ها با قوانین دست‌نویس و از پیش برنامه‌ریزی‌شده کار می‌کردند، انقلاب فعلی بر پایه مدل‌های بزرگ و داده‌های عظیم استوار است. سرمایه‌گذاری در ربات‌های انسان‌نما در سال ۲۰۲۵ به تنهایی به ۶.۱ میلیارد دلار رسید (چهار برابر سال قبل).
تحول بنیادین در روش یادگیری ربات‌ها
· روش قدیمی (قوانین دست‌نویس): برنامه‌نویس باید تمام احتمالات را پیش‌بینی و قانون‌گذاری کند (مثلاً «آستین چپ را دقیقاً به اندازه X بلند کن»). با افزایش پیچیدگی، تعداد قوانین به سرعت از کنترل خارج می‌شود.· روش جدید (یادگیری از طریق شبیه‌سازی): به جای قانون‌نویسی، یک شبیه‌سازی دیجیتال ساخته می‌شود و به ربات یک «سیگنال پاداش» برای موفقیت و «سیگنال جریمه» برای شکست داده می‌شود. ربات با میلیون‌ها بار تکرار و آزمون و خطا، خودش بهترین روش را یاد می‌گیرد.· انقلاب ۲۰۲۲ (مدل‌های زبانی بزرگ): با آمدن ChatGPT، روش جدیدی ظهور کرد: به جای آزمون و خطا، مدل با جذب حجم عظیمی از داده (تصاویر، حسگرها، موقعیت مفاصل ربات) یاد می‌گیرد قدم بعدی (next action) را پیش‌بینی کند و در هر ثانیه ده‌ها فرمان موتوری صادر کند.
پروژه‌های شاخص تاریخی در این تحول
· Jibo (۲۰۱۴): یک ربات اجتماعی جذاب که در رقابت با سیری و الکسا شکست خورد، چون مکالمات آن از روی اسکریپت‌های تکراری و خسته‌کننده بود. امروز مدل‌های زبانی مشکل مکالمه را حل کرده‌اند، اما ریسک «خارج شدن از ریل» مکالمه را نیز اضافه کرده‌اند.· Dactyl (۲۰۱۸ - OpenAI): دست رباتیکی که سعی کرد مکعب‌ها را در شبیه‌سازی یاد بگیرد. چالش اصلی «شکاف بین شبیه‌سازی و واقعیت» بود. راه‌حل «تنوع دامنه» (Domain Randomization) بود: ایجاد میلیون‌ها شبیه‌سازی که هر کدام کمی متفاوت هستند (اصطکاک کمتر، نور تندتر، رنگ تیره‌تر) تا ربات برای هر شرایط واقعی آماده شود. این تکنیک امروز نقش کمتری دارد و OpenAI تیم رباتیک خود را در ۲۰۲۱ تعطیل و اخیراً دوباره (با تمرکز بر انسان‌نماها) راه‌اندازی کرده است.· RT-2 (۲۰۲۳ - Google DeepMind): پیشگام مدل‌های بنیادین برای رباتیک. این مدل روی تصاویر عمومی اینترنت (و نه فقط داده‌های رباتیک) آموزش دید تا بتواند اشیاء را تفسیر کند. · RFM-1 (۲۰۲۴ - Covariant): یک مدل رباتیک که می‌توان با آن مثل یک همکار تعامل کرد. اگر ربات نتوانست چیزی را بردارد، از شما می‌پرسد «از کدام مکنده استفاده کنم؟». این مدل اکنون توسط آمازون (که بنیانگذاران Covariant را استخدام کرده) در انبارهایش استفاده می‌شود.· Digit (Agility Robotics): یکی از اولین ربات‌های انسان‌نمایی که به جای آزمایشگاه، در انبارهای واقعی (آمازون، تویوتا) کار می‌کند (جابجایی و انباشتن محفظه‌های حمل و نقل). محدودیت فعلی: حداکثر بلند کردن ۳۵ پوند (هر قوی‌تر شدن، باتری سنگین‌تر می‌شود).
آدرس کامل مقاله:https://www.technologyreview.com/2026/04/17/1135416/how-robots-learn-brief-contemporary-history/
کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News
کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله@cyber_warfare_monitor
کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۵:۵۰

thumbnail
مقاله How-To Geek به بررسی رایج‌ترین افسانه‌های مربوط به حافظه‌های SSD می‌پردازد که با وجود گذشت سال‌ها هنوز هم در محافل فناوری تکرار می‌شوند و در سال ۲۰۲۶ همچنان کاربران را به اشتباه می‌اندازند.
*۶ افسانه رایج که باید از بین برود:

۱. نیاز به دی‌فراگمنت کردن SSD
دی‌فراگمنت کردن (که برای هارددیسک‌های مکانیکی ضروری بود) برای SSDها نه تنها بی‌فایده است، بلکه باعث سایش غیرضروری و کاهش عمر آن می‌شود. سیستم‌عامل مدرن به جای آن از دستور TRIM استفاده می‌کند.

۲. پر کردن کامل SSD آن را می‌کشد
پر کردن ۱۰۰٪ SSD به طور آنی آن را نمی‌کشد، اما عملکرد آن به شدت کاهش می‌یابد (به ویژه در وظایف نوشتاری). SSD برای انجام مدیریت پس‌زمینه (مانند توزیع سایش و جمع‌آوری زباله) به فضای خالی نیاز دارد.

۳. SSDها کمتر از HDD قابل اعتماد هستند
این افسانه از دوره اولیه ظهور SSDها (حدود یک دهه پیش) باقی مانده است. SSDهای مدرن از نظر MTBF (میانگین زمان بین خرابی‌ها) بسیار قابل اعتمادتر از هارددیسک‌های مکانیکی هستند، زیرا قطعه متحرک ندارند و در برابر ضربه و لرزش مقاوم‌ترند.

۴. TLC خوب است و QLC بد است
QLC (چهار سطح در هر سلول) نسبت به TLC (سه سطح) تراکم بالاتر و قیمت کمتری دارد، اما دوام نوشتاری کمتری نیز دارد. با این حال، یک QLC خوب ساخته شده در نقش مناسب (مانند ذخیره‌سازی داده‌هایی که زیاد نوشته نمی‌شوند) انتخابی معقول و مقرون‌به‌صرفه است، هرچند نباید تنها نسخه پشتیبان فایل‌های مهم روی آن باشد.

۵. نیاز به SSD نسل پنجم (Gen5) در کامپیوتر مدرن
تفاوت روزمره بین یک SSD خوب نسل چهارم و یک SSD نسل پنجم اغلب ناچیز است، مگر اینکه بار کاری خاصی (مانند ویرایش ویدئوی 8K خام یا ترافیک سنگین پایگاه داده) داشته باشید. برای کاربر معمولی و حتی اکثر گیمرها، نسل چهارم کاملاً کافی است.

۶. SSDهای بدون DRAM بی‌کیفیت و ضعیف هستند
SSDهای بدون کش DRAM (که از فناوری HMB - Host Memory Buffer استفاده می‌کنند) در سال‌های اخیر پیشرفت چشمگیری داشته‌اند و برای بسیاری از کاربری‌های روزمره و حتی بازی، عملکرد بسیار خوبی ارائه می‌دهند. این برچسب کلی «جunk» دیگر در ۲۰۲۶ اعتبار ندارد.

توصیه نهایی نویسنده: به بازاریابی توجه نکنید و برای خرید هر SSD، حتماً چندین بررسی معتبر از مدل خاص مورد نظر را مطالعه کنید و فقط روی بنچمارک‌ها تمرکز نکنید.

آدرس کامل مقاله:
https://www.howtogeek.com/ssd-myths-that-still-refuse-to-die-in-2026/

کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله
@IT_AI_News

کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله
@cyber_warfare_monitor

کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی*
@it_ai_skill_training

۴:۴۱

thumbnail
نویسنده مقاله How-To Geek به طور کامل استفاده از Adobe Acrobat را کنار گذاشته و به ابزار رایگان، متن‌باز و مبتنی بر مرورگر *BentoPDF روی آورده است که تمام نیازهای او را بدون هزینه اشتراک سالانه ۱۸۰ دلاری برآورده می‌کند.

دلایل مهاجرت از Adobe Acrobat:
- هزینه حداقل ۱۵ دلار در ماه (بیشتر برای نسخه‌های Pro)
- رویکرد ابری‑محور (cloud‑first) که حریم خصوصی اسناد حساس (مانند شماره تامین اجتماعی یا اطلاعات مالیاتی) را به خطر می‌اندازد

مزایای BentoPDF:
- کاملاً رایگان و منبع‌باز
- پردازش
به صورت محلی در مرورگر کاربر (بدون آپلود و ذخیره داده روی سرورهای شخص ثالث)
- قابلیت خودمیزبانی (self‑hosting) با داکر یا سرور شخصی (هزینه سرور خانگی در چند سال در مقایسه با اشتراک Acrobat جبران می‌شود)
- کار بر روی هر سیستم‌عامل و دستگاهی (فقط با یک مرورگر)

امکانات کامل BentoPDF:
- توابع اصلی: ادغام فایل‌ها، تقسیم اسناد، چرخش صفحات، فشرده‌سازی PDF
- قابلیت‌های پیشرفته: تشخیص نویسه نوری (OCR) و مقایسه دو نسخه PDF
- تبدیل به فرمت‌های Word، تصویر، متن ساده (و برعکس)

نقطه ضعف:
رابط کاربری با نرم‌افزارهای واژه‌پرداز تفاوت دارد، اما ساده و شفاف است؛ هیچ دکمه‌ای بی‌کاربرد وجود ندارد.

نتیجه‌گیری نویسنده:
برای کاربران معمولی که فقط نیاز به ویرایش یا امضای PDF دارند، جایگزینی عالی و رایگان است و برای استفاده حرفه‌ای نیز در محیط‌های غیرحساس به شدت توصیه می‌شود.

آدرس کامل مقاله:
https://www.howtogeek.com/quit-paying-for-adobe-acrobat-switch-better-free-tool/

کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله
@IT_AI_News

کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله
@cyber_warfare_monitor

کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی*
@it_ai_skill_training

۴:۴۲

thumbnail
مقاله به معرفی و بررسی ویژگی‌های *Microsoft Visual Studio Professional 2026 پرداخته است که در ۲۲ آوریل ۲۰۲۶ (۳ اردیبهشت ۱۴۰۵) منتشر شده است.

undefined قیمت و نحوه خرید:
- قیمت مجوز (لیسانس) جدید:
۵۹۹ دلار برای یک سال (خرید یک‌باره).
-
تخفیف ویژه Mashable (برای مدت محدود): ۴۰ دلار به ازای هر مجوز (۳۳٪ تخفیف نسبت به قیمت عادی).
- لینک خرید با تخفیف در مقاله موجود است. همچنین گزینه اجاره (اشتراک) ماهانه نیز قابل انتخاب است.

undefined ویژگی‌های نسخه ۲۰۲۶:
-
بازسازی کامل رابط کاربری (UI) برای بهره‌وری بیشتر.
-
یکپارچه‌سازی پیشرفته با GitHub Codespaces برای توسعه ابری.
-
ابزارهای هوشمند تصحیح خطا (IntelliTrace) با قابلیت «فرورفتن در هر مرحله از اجرای برنامه».
-
همکاری همزمان و پشتیبانی از جفت‌برنامه‌نویسی (Live Share).
-
ابزار تست خودکار پیشرفته (Live Unit Testing) برای نمایش خطاها و نتایج تست در لحظه.

undefined محدودیت‌ها و توصیه‌ها:
-
نیازمند ویندوز ۱۰ یا بالاتر (نسخه مک موجود نیست).
- برای پروژه‌های سازمانی بزرگ و کدنویسی حرفه‌ای توصیه می‌شود.
- کاربرانی که به IDE سبک‌تری نیاز دارند،
Visual Studio Code (رایگان) گزینه مناسب‌تری است.

آدرس کامل مقاله:
https://mashable.com/article/april-22-microsoft-visual-studio-professional-2026

کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله
@IT_AI_News

کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله
@cyber_warfare_monitor

کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی*
@it_ai_skill_training

۸:۱۸

thumbnail
مقاله KDnuggets به معرفی *۱۰ کتابخانه پایتون برای ساخت برنامه‌های مبتنی بر مدل‌های زبانی بزرگ (LLM) پرداخته است. این کتابخانه‌ها طیف وسیعی از نیازها از بارگذاری مدل و ریزتنظیم (fine-tuning) تا ساخت خطوط لوله RAG، استقرار، عامل‌های چندگانه و ارزیابی را پوشش می‌دهند.

## undefined فهرست ۱۰ کتابخانه و کاربرد اصلی

۱. Transformers (Hugging Face)
مرکز اصلی کار با مدل‌های متن‌باز. برای بارگذاری مدل، توکنایزیشن، تولید متن و ریزتنظیم (fine-tuning). یک واسط یکسان برای مدل‌های مختلف فراهم می‌کند.

۲. LangChain
برای اتصال قطعات مختلف یک برنامه LLM (مانند پرامپت‌ها، ابزارها، APIها و فراخوانی‌های مدل) به یک جریان واحد. مناسب برای چت‌بات‌ها، سیستم‌های RAG و برنامه‌های عاملی (agentic).

۳. LlamaIndex
تخصص در اتصال برنامه LLM به داده‌های واقعی (اسناد، PDF، پایگاه داده). برای
RAG ضروری است و پاسخ‌ها را مبتنی بر داده‌های به‌روز و مرتبط می‌کند.

۴. vLLM
برای
خدمت‌دهی (serving) کارآمد مدل‌های متن‌باز. استنتاج سریع، استفاده بهتر از حافظه GPU و توان عملیاتی بالا. گزینه قوی برای استقرار در مقیاس تولید.

۵. Unsloth
تخصص در
ریزتنظیم کارآمد (به ویژه LoRA و QLoRA) با مصرف حافظه کمتر. دسترسی به سفارشی‌سازی مدل‌های قدرتمند را برای تیم‌های کوچک و سخت‌افزار محدود فراهم می‌کند.

۶. CrewAI
چارچوب ساخت
سیستم‌های چندعاملی (multi-agent). به سازماندهی یک «تیم» از عامل‌ها با نقش‌ها، اهداف و وظایف مشخص در گردش‌کاری ساختاریافته کمک می‌کند.

۷. AutoGPT
یکی از شناخته‌شده‌ترین ابزارهای عامل. پشتیبانی از
اجرای خودکار و هدف‌محور وظایف چندمرحله‌ای (planning, decomposition, action).

۸. LangGraph
برای
ارکستراسیون عاملی مبتنی بر حالت (stateful) . طراحی جریان‌های غیرخطی با انشعاب، حافظه و منطق چندمرحله‌ای. کنترل بیشتر نسبت به زنجیره‌های خطی ساده.

۹. DeepEval
چارچوب
تست و ارزیابی برنامه‌های LLM. معیارهایی مانند relevance، hallucination، faithfulness، و task success. برای اطمینان از قابلیت اطمینان قبل از تولید.

۱۰. OpenAI Python SDK
ساده‌ترین راه برای افزودن
قابلیت‌های LLM مبتنی بر API (مدل‌های OpenAI). بدون نیاز به مدیریت میزبانی مدل یا زیرساخت استنتاج – تمرکز بر روی منطق برنامه.

## undefined جدول مقایسه (به صورت متنی)

-
Transformers: بهترین گزینه برای بارگذاری مدل و ریزتنظیم (اساس اکوسیستم LLM)
-
LangChain: بهترین گزینه برای گردش کار LLM (اتصال پرامپت، ابزار، بازیابی و APIها)
-
LlamaIndex: بهترین گزینه برای RAG و برنامه‌های مبتنی بر دانش (مستندسازی پاسخ‌ها در داده‌های واقعی)
-
vLLM: بهترین گزینه برای استنتاج و خدمت‌دهی سریع (استقرار کارآمد مدل‌های متن‌باز)
-
Unsloth: بهترین گزینه برای ریزتنظیم کارآمد (کاهش هزینه سفارشی‌سازی مدل‌های قدرتمند)
-
CrewAI: بهترین گزینه برای سیستم‌های چندعاملی (ساختاردهی به نقش‌ها و گردش کار عامل‌ها)
-
AutoGPT: بهترین گزینه برای آزمایش‌های خودکار و خودمختار (پشتیبانی از اجرای چندمرحله‌ای هدف‌محور)
-
LangGraph: بهترین گزینه برای ارکستراسیون عاملی حالت‌دار (کنترل بیشتر بر گردش کار پیچیده)
-
DeepEval: بهترین گزینه برای ارزیابی و تست (سنجش قابلیت اطمینان قبل از تولید)
-
OpenAI Python SDK: بهترین گزینه برای برنامه‌های مبتنی بر API (سریع‌ترین راه برای افزودن قابلیت‌های LLM)

آدرس کامل مقاله:
https://www.kdnuggets.com/10-python-libraries-for-building-llm-applications

کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله
@IT_AI_News

کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله
@cyber_warfare_monitor

کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی*
@it_ai_skill_training

۴:۱۳

thumbnail
نویسنده مقاله پس از ماهها استفاده از Claude Code، به ابزار متن‌باز و رایگان *OpenCode روی آورده و آن را «هم‌اندازه خوب» ارزیابی کرده است. مزیت اصلی OpenCode، پشتیبانی بومی از بیش از ۷۵ ارائه‌دهنده مدل (شامل GPT، Gemini، مدل‌های محلی و حتی اشتراک‌های ChatGPT Plus و GitHub Copilot) است، در حالی که Claude Code به مدل‌های آنتروپیک محدود است.

## undefined چرا OpenCode؟

-
انعطاف پذیری مدل: کاربر می‌تواند بسته به وظیفه، مدل را عوض کند (مثلاً GPT-5.5 برای گردش کار ترمینال محور، Gemini برای تکرار سریع، مدل محلی برای وظایف سبک). Claude Code فقط به مدل‌های Haiku، Sonnet و Opus محدود است.
-
ویژگی‌های مشابه Claude Code: شامل Plan mode (حالت فقط خواندنی برای تحلیل پروژه قبل از هر تغییری) و Build mode، قابلیت ویرایش فایل‌ها در کل پروژه، اجرای فرمان‌های ترمینال و پشتیبانی از MCP servers و Skills.
-
همخوانی با تنظیمات قبلی: فایل‌های CLAUDE.md و دایرکتوری skills به عنوان fallback خوانده می‌شوند.
-
رایگان و متن‌باز: (برخلاف Claude Code که نیاز به اشتراک دارد).

## undefined نکته کلیدی

نویسنده تأکید می‌کند که «چیزی که دوست داشتم خود
کلود بود، نه کلود کد». کلود کد فقط پوسته (shell) اطراف مدل است، در حالی که OpenCode همان هوش را با آزادی عمل بیشتر ارائه می‌دهد.

آدرس کامل مقاله:
https://xda-developers.com/i-use-opencode-over-claude-code-and-its-every-bit-as-good/

کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله
@IT_AI_News

کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله
@cyber_warfare_monitor

کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی*
@it_ai_skill_training

۴:۳۵

thumbnail
*خلاصه مقاله:

مقاله‌ای در
MarkTechPost* با عنوان *«A Coding Deep Dive into Agentic UI, Generative UI, State Synchronization, and Interrupt-Driven Approval Flows» (30 آوریل 2026) یک پیاده‌سازی عملی و کامل از معماری رابط‌های کاربری هوشمند (Agentic UI) را با استفاده از پایتون خالص—بدون وابستگی به فریم‌ورک‌های سنگین—ارائه می‌دهد.

### اجزای اصلی سیستم:

#### 1.
AG-UI Protocol — سیستم رویداد محور
- یک سیستم جریان رویداد (event stream) بر اساس استاندارد واقعی
Server-Sent Events (SSE).
- شامل
۱۶ نوع رویداد مانند:
- `RUN_STARTED` / `RUN_FINISHED`
- `TEXT_MESSAGE_CONTENT` (برای نمایش کاراکتر به کاراکتر)
- `TOOL_CALL_START` / `TOOL_CALL_RESULT`
- `STATE_SNAPSHOT` و `STATE_DELTA`
- `INTERRUPT` (برای تأیید دستی)

#### 2.
A2UI — رابط‌های تولیدشده به صورت توصیفی (Declarative)
- بر اساس مشخصات
Google A2UI طراحی شده است.
- رابط‌ها به‌صورت
JSON ساختاریافته تولید می‌شوند، نه کد اجرایی.
- از مدل «لیست مجاورت تخت» (flat adjacency list) استفاده می‌کند: هر کامپوننت فرزندانش را با
ID مشخص می‌کند—نه تو در تو.
- یک
Registry ویجت در سمت کلاینت، انواع انتزاعی (`card`, `button`, `progress-bar`) را به رندررهای واقعی (مثل React یا Terminal) متصل می‌کند.

#### 3.
Generative UI — تولید رابط با LLM
- یک عامل هوش مصنوعی (LLM) بر اساس درخواست کاربر،
به‌طور پویا یک رابط تعاملی می‌سازد.
- مثال‌ها:
- فرم ثبت‌نام
- داشبورد پروژه
- پنجره تأیید پرداخت
- خروجی دقیقاً مطابق با schema A2UI است و مستقیماً قابل رندر است.

#### 4.
همگام‌سازی حالت (State Synchronization)
- یک موتور
SharedState وجود دارد که تمام تغییرات را با JSON Patch ضبط و منتشر می‌کند.
- هر بار که عامل وضعیت را تغییر می‌دهد، یک رویداد `STATE_DELTA` ارسال می‌شود.
- رابط کاربری بلافاصله به‌روزرسانی می‌شود—حتی در حین اجرای چندعاملی (multi-agent).

#### 5.
تأیید انسانی (Human-in-the-Loop)
- وقتی عامل بخواهد کاری پرریسک انجام دهد (مثل ارسال ایمیل به ۵۰۰۰ کاربر)، یک رویداد `INTERRUPT` ارسال می‌کند.
- اجرای عامل
معلق می‌شود تا کاربر تصمیم بگیرد: تأیید، رد یا اصلاح.
- این مکانیزم امنیت و کنترل را در سیستم‌های خودکار تضمین می‌کند.

#### 6.
به‌روزرسانی افزایشی (Incremental Updates)
- رابط‌های زنده می‌توانند بدون بازسازی کامل،
اجزای جدید اضافه کنند، ویژگی‌ها را تغییر دهند یا اجزای قدیمی را حذف کنند.
- برای سناریوهای همکاری بلادرنگ (مثل داشبورد اسپرینت) ضروری است.

### نتیجه‌گیری:
این مقاله نشان می‌دهد که
رابط‌های هوشمند آینده فقط متن نیستند—بلکه ساختارهای تعاملی، ایمن و همگام‌شده‌ای هستند که توسط عامل‌های هوش مصنوعی به‌صورت پویا ساخته می‌شوند.
با این معماری، توسعه‌دهندگان می‌توانند سیستم‌هایی بسازند که
هم هوشمند باشند و هم تحت کنترل انسان.

لینک کامل خبر:*
https://www.marktechpost.com/2026/04/30/a-coding-deep-dive-into-agentic-ui-generative-ui-state-synchronization-and-interrupt-driven-approval-flows/
کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله @IT_AI_News
کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله @cyber_warfare_monitor
کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی @it_ai_skill_training

۴:۵۷

thumbnail
*خلاصه مقاله:

مقاله‌ای در
How-To Geek* با عنوان *«I Ditched My ‘Not a Math Person’ Excuse and Built a Machine Learning Model in Python» (آوریل 2026) داستان شخصی یک نویسنده غیرمتخصص را روایت می‌کند که با کنار گذاشتن ترس از ریاضیات، موفق شد یک مدل یادگیری ماشین ساده را در پایتون بسازد.

### مراحل کلیدی:

1.
شکستن باور «من آدم ریاضی نیستم»:
- نویسنده قبول می‌کند که برای شروع یادگیری ماشین، نیازی به تسلط عمیق بر جبر خطی یا حساب دیفرانسیل نیست—بلکه درک مفاهیم پایه و استفاده از کتابخانه‌های آماده کافی است.

2.
انتخاب پروژه ساده:
- به جای پردازش تصویر یا زبان طبیعی، یک
مدل رگرسیون خطی برای پیش‌بینی قیمت خانه بر اساس داده‌های عمومی (مثل متراژ، تعداد اتاق) انتخاب کرد.

3.
ابزارهای استفاده‌شده:
-
pandas: برای بارگذاری و پاک‌سازی داده
-
scikit-learn: برای آموزش مدل (`LinearRegression`)
-
matplotlib: برای نمایش نمودار مقایسه پیش‌بینی و واقعیت
-
Jupyter Notebook: برای آزمایش تدریجی بدون نیاز به کامپایل

4.
چالش‌ها و یادگیری‌ها:
- اولین مدل
R² = 0.32 داشت—ضعیف، اما نقطه شروع.
- با افزودن ویژگی‌های جدید (مثل فاصله از مرکز شهر) و نرمال‌سازی داده‌ها، عملکرد به
R² = 0.78 رسید.
- متوجه شد که
مهندسی ویژگی (feature engineering) مهم‌تر از الگوریتم پیچیده است.

5.
نتیجه‌گیری روان‌شناختی:
> «من هرگز نیازی به حل معادلات دیفرانسیل نداشتم. فقط کافی بود بدانم چه چیزی را می‌خواهم پیش‌بینی کنم، چه داده‌هایی دارم، و چه ابزاری می‌تواند به من کمک کند.»

### پیام اصلی:
هوش مصنوعی و یادگیری ماشین دیگر فقط برای «آدم‌های ریاضی» نیست—با ابزارهای مدرن، هر کسی می‌تواند از آن‌ها استفاده کند، حتی اگر آخرین باری که ریاضی خوانده، در دبیرستان بوده باشد.

لینک کامل خبر:*
https://www.howtogeek.com/i-ditched-my-not-a-math-person-excuse-and-built-a-machine-learning-model-in-python/
کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله @IT_AI_News
کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله @cyber_warfare_monitor
کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی @it_ai_skill_training

۴:۵۱

thumbnail
* توسعه دهندگان محیط های دسکتاپ لینوکس به صورت مداوم نوآوری های زیادی را برای بالابردن درصد مخاطبان این سیستم عامل متن باز در نسخه های جدید عرضه می کنند. آخرین نسخه محیط دسک تاپ محبوب Gnome با قابلیت های ذیل منتشر شده است*محیط دسکتاپ گنوم نسخه ۵۰ منتشر شده است و ویژگی‌هایی را ارائه می‌دهد که نویسنده سال‌ها منتظر آنها بوده است.
undefined پشتیبانی از مانیتورهای مدرن (HiDPI و نرخ تازه‌سازی متغیر):
· مقیاس کسری (Fractional Scaling) : به طور رسمی بخشی از گنوم شده است. اکنون می‌توانید مقادیر میانی مانند ۱۲۵٪، ۱۳۳٪ و ۱۵۰٪ را انتخاب کنید (نه فقط ۱۰۰٪ و ۲۰۰٪).· نرخ تازه‌سازی متغیر (Variable Refresh Rate) : پشتیبانی می‌شود. حرکت مکان‌نما با حداکثر نرخ مانیتور (مثلاً ۱۴۴ هرتز) حتی در نرم‌افزارهایی که نرخ فریم محدود دارند، روان خواهد بود.
undefined کنترل والدین پیشرفته:
· محدودیت زمانی روزانه (مثلاً دو ساعت در روز) و هشدار به کودک قبل از اتمام زمان.· برنامه زمان خواب (bedtime schedule) : کودک پس از ساعتی مشخص نمی‌تواند وارد دستگاه شود.· فیلتر محتوای وب (در پس‌زمینه و هنوز در برنامه تنظیمات قابل مشاهده نیست).
undefined حاشیه‌نویسی اسناد (در برنامه نمایشگر اسناد پیش‌فرض):طراحی مدرن و دسترس‌پذیرتر با قابلیت‌های گسترده: کشیدن روی PDF، هایلایت متن، پاک کردن اشتباهات و جابجا کردن حاشیه‌نویسی‌ها.
undefined مدیر فایل سریع‌تر (Files):
· آیکون‌ها و تصاویر کوچک (thumbnails) سریع‌تر بارگذاری می‌شوند و حافظه کمتری مصرف می‌شود.· بهبود ویژگی تغییر نام دسته‌جمعی فایل‌ها (batch file renaming).
undefined برنامه‌های جدید (در شش ماه گذشته):
· Gradia : ابزار حاشیه‌نویسی اسکرین‌شات.· Sessions : ابزار پومودورو (مدیریت زمان) با طراحی اختصاصی.
آدرس کامل مقاله:https://www.howtogeek.com/gnome-50-is-the-linux-desktop-update-ive-waited-years-for/
کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News
کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله@cyber_warfare_monitor
کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۵:۱۹

thumbnail
نویسنده مقاله استدلال می‌کند که اکسل به دلایل زیر هرگز با ظهور ابزارهای هوش مصنوعی جایگزین نخواهد شد:
undefined ۱. اکسل به زیرساخت تبدیل شده است (Infrastructure, not just a tool)اکسل در فرآیهای مالی، لجستیک و گزارش‌گیری عمیقاً تثبیت شده است. اگر ناپدید شود، مشکل اصلی یادگیری یک ابزار جدید نیست، بلکه باز کردن گره وابستگی‌هایی است که همه چیز به آن متکی است.
undefined ۲. سقف فنی بالاتر از همیشه (LAMBDA و Python درون شبکه)مایکروسافت اکسل را به یک محیط برنامه‌نویسی تبدیل کرده است:
· LAMBDA: نوشتن توابع سفارشی و قابل استفاده مجدد بدون یک خط کد.· ادغام Python: مستقیماً درون شبکه اکسل برای انجام کارهای علم داده. در حالی که رقبا (مانند Google Sheets) برای داده‌های بزرگ و سنگین به مشکل می‌خورند.
undefined ۳. هزینه اقتصادی تعویض به صرفه نیست (قوانین تطبیق و حسابرسی)در دنیای شرکتها، یک صفحه گسترده اغلب یک فرآیند تأیید شده (validated process) است که بخشی از مسیر حسابرسی (audit trail) است. حرکت به پلتفرم جدید به معنای تأیید مجدد هر محاسبه و آموزش مجدد نیروی کار است. «قابل پیش‌بینی بودن خسته‌کننده ابزاری که کار می‌کند، همیشه برنده است.»
undefined ۴. فایل XLSX یک استاندارد ارتباطی جهانی استحتی پلتفرم‌های SaaS برای باقی ماندن در بازار، مجبور به افزودن دکمه «خروجی به اکسل» هستند. مدل‌های مالی، پیش‌بینی‌های زنجیره تأمین و گزارش‌های موجودی به طور پیش‌فرض به عنوان صفحه گسترده به اشتراک گذاشته می‌شوند.
undefined ۵. هوش مصنوعی یک نیروی ضریب‌دهنده (force multiplier) برای اکسل استهوش مصنوعی (مانند مایکروسافت کوپایلوت با مدل‌های کلود ۴ و اوپن‌ای‌آی) مولد و مستعد توهم (hallucination) است، در حالی که داده‌های تجاری باید قطعی (deterministic) و قابل تأیید باشند. اکسل نرده‌های حفاظتی سفت و سختی (rigid guardrails) را فراهم می‌کند که هوش مصنوعی برای مفید بودن به آن نیاز دارد.
آدرس کامل مقاله:https://www.howtogeek.com/microsoft-excel-real-reasons-never-be-replaced-even-with-ai-tools/
کانال تازه‌ترین اخبارهای فناوری اطلاعات و هوش مصنوعی در بله@IT_AI_News
کانال تازه‌ترین اخبارهای حوزه امنیت، دفاع و پدافند سایبری در بله@cyber_warfare_monitor
کانال مهارت و آموزش فناوری اطلاعات و هوش مصنوعی@it_ai_skill_training

۵:۲۰