{"id":65073,"date":"2026-04-10T18:35:16","date_gmt":"2026-04-10T15:35:16","guid":{"rendered":"https:\/\/rss.eground-zerkalo.com\/?p=65073"},"modified":"2026-04-10T18:35:16","modified_gmt":"2026-04-10T15:35:16","slug":"%d0%be%d1%81%d0%b2%d0%be%d0%b5%d0%bd%d0%b8%d0%b5-%d0%bf%d0%b0%d1%80%d0%b0%d0%bb%d0%bb%d0%b5%d0%bb%d1%8c%d0%bd%d0%be%d0%b3%d0%be-%d0%bf%d1%80%d0%be%d0%b3%d1%80%d0%b0%d0%bc%d0%bc%d0%b8%d1%80%d0%be%d0%b2","status":"publish","type":"post","link":"https:\/\/rss.eground-zerkalo.com\/?p=65073","title":{"rendered":"\u041e\u0441\u0432\u043e\u0435\u043d\u0438\u0435 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e\u0433\u043e \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f \u043d\u0430 GPU \u0441 CUDA: (HW &#038; SW) [Udemy] [Hamdy egy]"},"content":{"rendered":"<h2 class=\"\">\u0421\u043a\u043b\u0430\u0434\u0447\u0438\u043d\u0430: \u041e\u0441\u0432\u043e\u0435\u043d\u0438\u0435 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e\u0433\u043e \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f \u043d\u0430 GPU \u0441 CUDA: (HW &amp; SW) [Udemy] [Hamdy egy]<\/h2>\n<p> \t\t\t\t\t<b>Mastering GPU Parallel Programming with CUDA: ( HW &amp; SW )<\/b><br \/> \u042f\u0437\u044b\u043a: \u0430\u043d\u0433\u043b\u0438\u0439\u0441\u043a\u0438\u0439<\/p>\n<p>  \t \t<img decoding=\"async\" src=\"https:\/\/v32.skladchik.org\/attachments\/img_20260410_165306-png.1251574\/\" class=\"bbCodeImage LbImage\" alt=\"IMG_20260410_165306.png\" \/> \t\t <\/p>\n<p> <b>\u041e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f \u0438 \u0430\u043d\u0430\u043b\u0438\u0437 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u0438 \u0434\u043b\u044f \u0432\u044b\u0441\u043e\u043a\u043e\u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u044b\u0445 \u0432\u044b\u0447\u0438\u0441\u043b\u0435\u043d\u0438\u0439<\/b><\/p>\n<p> \u042d\u0442\u043e \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 \u043a\u0443\u0440\u0441, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043f\u043e\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442, \u043a\u0430\u043a \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u043e\u0433\u0440\u043e\u043c\u043d\u0443\u044e \u043c\u043e\u0449\u043d\u043e\u0441\u0442\u044c \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e\u0439 \u043e\u0431\u0440\u0430\u0431\u043e\u0442\u043a\u0438 \u0441\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u044b\u0445 GPU \u0441 \u043f\u043e\u043c\u043e\u0449\u044c\u044e CUDA. \u0412\u044b \u043d\u0430\u0447\u043d\u0451\u0442\u0435 \u0441 \u043e\u0441\u043d\u043e\u0432 \u0430\u043f\u043f\u0430\u0440\u0430\u0442\u043d\u043e\u0439 \u0447\u0430\u0441\u0442\u0438 GPU, \u043f\u0440\u043e\u0441\u043b\u0435\u0434\u0438\u0442\u0435 \u044d\u0432\u043e\u043b\u044e\u0446\u0438\u044e \u043a\u043b\u044e\u0447\u0435\u0432\u044b\u0445 \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440 \u2014 Fermi, Pascal, Volta, Ampere, Hopper \u2014 \u0438 \u0447\u0435\u0440\u0435\u0437 \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0435 \u0437\u0430\u0434\u0430\u043d\u0438\u044f \u043d\u0430\u0443\u0447\u0438\u0442\u0435\u0441\u044c \u043f\u0438\u0441\u0430\u0442\u044c, \u043f\u0440\u043e\u0444\u0438\u043b\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0438 \u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432\u044b\u0441\u043e\u043a\u043e\u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u044b\u0435 CUDA kernels.<\/p>\n<p> \u042d\u0442\u043e \u043d\u0435\u0437\u0430\u0432\u0438\u0441\u0438\u043c\u044b\u0439 \u043e\u0431\u0443\u0447\u0430\u044e\u0449\u0438\u0439 \u043c\u0430\u0442\u0435\u0440\u0438\u0430\u043b. \u041e\u043d \u043d\u0435 \u0441\u043f\u043e\u043d\u0441\u0438\u0440\u0443\u0435\u0442\u0441\u044f, \u043d\u0435 \u043e\u0434\u043e\u0431\u0440\u0435\u043d \u0438 \u043d\u0435 \u0430\u0444\u0444\u0438\u043b\u0438\u0440\u043e\u0432\u0430\u043d \u0441 NVIDIA Corporation. \u041d\u0430\u0437\u0432\u0430\u043d\u0438\u044f CUDA, Nsight \u0438 \u043a\u043e\u0434\u043e\u0432\u044b\u0435 \u043d\u0430\u0437\u0432\u0430\u043d\u0438\u044f \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440 \u044f\u0432\u043b\u044f\u044e\u0442\u0441\u044f \u0442\u043e\u0432\u0430\u0440\u043d\u044b\u043c\u0438 \u0437\u043d\u0430\u043a\u0430\u043c\u0438 NVIDIA \u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u044e\u0442\u0441\u044f \u0442\u043e\u043b\u044c\u043a\u043e \u0432 \u0441\u043f\u0440\u0430\u0432\u043e\u0447\u043d\u044b\u0445 \u0446\u0435\u043b\u044f\u0445.<\/p>\n<p> <b>\u0427\u0435\u043c\u0443 \u0432\u044b \u043d\u0430\u0443\u0447\u0438\u0442\u0435\u0441\u044c:<\/b> <\/p>\n<ul>\n<li>\u043f\u043e\u043b\u0443\u0447\u0438\u0442\u0435 \u043a\u043e\u043c\u043f\u043b\u0435\u043a\u0441\u043d\u043e\u0435 \u043f\u043e\u043d\u0438\u043c\u0430\u043d\u0438\u0435 \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440\u044b GPU \u043f\u043e \u0441\u0440\u0430\u0432\u043d\u0435\u043d\u0438\u044e \u0441 CPU<\/li>\n<li>\u0438\u0437\u0443\u0447\u0438\u0442\u0435 \u0438\u0441\u0442\u043e\u0440\u0438\u044e \u0433\u0440\u0430\u0444\u0438\u0447\u0435\u0441\u043a\u0438\u0445 \u043f\u0440\u043e\u0446\u0435\u0441\u0441\u043e\u0440\u043e\u0432 GPU \u0432\u043f\u043b\u043e\u0442\u044c \u0434\u043e \u0441\u0430\u043c\u044b\u0445 \u0441\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u044b\u0445 \u0440\u0435\u0448\u0435\u043d\u0438\u0439<\/li>\n<li>\u0440\u0430\u0437\u0431\u0435\u0440\u0451\u0442\u0435\u0441\u044c \u0432\u043e \u0432\u043d\u0443\u0442\u0440\u0435\u043d\u043d\u0435\u0439 \u0441\u0442\u0440\u0443\u043a\u0442\u0443\u0440\u0435 GPU<\/li>\n<li>\u043f\u043e\u0439\u043c\u0451\u0442\u0435 \u0440\u0430\u0437\u043b\u0438\u0447\u043d\u044b\u0435 \u0442\u0438\u043f\u044b \u043f\u0430\u043c\u044f\u0442\u0438 \u0438 \u0438\u0445 \u0432\u043b\u0438\u044f\u043d\u0438\u0435 \u043d\u0430 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u044c<\/li>\n<li>\u0438\u0437\u0443\u0447\u0438\u0442\u0435 \u0441\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u044b\u0435 \u0442\u0435\u0445\u043d\u043e\u043b\u043e\u0433\u0438\u0438 \u0432\u043d\u0443\u0442\u0440\u0435\u043d\u043d\u0438\u0445 \u043a\u043e\u043c\u043f\u043e\u043d\u0435\u043d\u0442\u043e\u0432 GPU<\/li>\n<li>\u043e\u0441\u0432\u043e\u0438\u0442\u0435 \u043e\u0441\u043d\u043e\u0432\u044b \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f CUDA \u043d\u0430 GPU<\/li>\n<li>\u043d\u0430\u0447\u043d\u0451\u0442\u0435 \u043f\u0438\u0441\u0430\u0442\u044c \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u044b \u0434\u043b\u044f GPU \u0441 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435\u043c CUDA \u0432 Windows \u0438 Linux<\/li>\n<li>\u043f\u043e\u0439\u043c\u0451\u0442\u0435 \u043d\u0430\u0438\u0431\u043e\u043b\u0435\u0435 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u044b\u0435 \u0441\u043f\u043e\u0441\u043e\u0431\u044b \u0440\u0430\u0441\u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u0438\u0432\u0430\u043d\u0438\u044f<\/li>\n<li>\u043e\u0441\u0432\u043e\u0438\u0442\u0435 \u043f\u0440\u043e\u0444\u0438\u043b\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u0438 \u043d\u0430\u0441\u0442\u0440\u043e\u0439\u043a\u0443 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u0438<\/li>\n<li>\u043d\u0430\u0443\u0447\u0438\u0442\u0435\u0441\u044c \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c shared memory<\/li>\n<\/ul>\n<p><b>\u0427\u0442\u043e \u0432\u044b \u043e\u0441\u0432\u043e\u0438\u0442\u0435:<\/b> <\/p>\n<ul>\n<li>\u043e\u0441\u043d\u043e\u0432\u044b \u0440\u0430\u0437\u043b\u0438\u0447\u0438\u0439 GPU \u0438 CPU \u0438 \u043f\u0440\u0438\u0447\u0438\u043d\u044b \u0434\u043e\u043c\u0438\u043d\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f GPU \u0432 \u0437\u0430\u0434\u0430\u0447\u0430\u0445 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e\u0439 \u043e\u0431\u0440\u0430\u0431\u043e\u0442\u043a\u0438 \u0434\u0430\u043d\u043d\u044b\u0445<\/li>\n<li>\u0440\u0430\u0437\u0432\u0438\u0442\u0438\u0435 \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440 GPU \u043f\u043e \u043f\u043e\u043a\u043e\u043b\u0435\u043d\u0438\u044f\u043c \u0438 \u0430\u043f\u043f\u0430\u0440\u0430\u0442\u043d\u044b\u0435 \u043e\u0441\u043e\u0431\u0435\u043d\u043d\u043e\u0441\u0442\u0438, \u0432\u043b\u0438\u044f\u044e\u0449\u0438\u0435 \u043d\u0430 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u044c<\/li>\n<li>\u0443\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0443 CUDA Toolkit \u0432 Windows, Linux \u0438 WSL<\/li>\n<li>\u0431\u0430\u0437\u043e\u0432\u044b\u0435 \u043a\u043e\u043d\u0446\u0435\u043f\u0446\u0438\u0438 CUDA: threads, blocks, grids \u0438 \u0438\u0435\u0440\u0430\u0440\u0445\u0438\u044f \u043f\u0430\u043c\u044f\u0442\u0438<\/li>\n<li>\u043f\u0440\u043e\u0444\u0438\u043b\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u0438 \u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044e \u0447\u0435\u0440\u0435\u0437 Nsight Compute \u0438 nvprof<\/li>\n<li>\u0434\u0432\u0443\u043c\u0435\u0440\u043d\u0443\u044e \u0438\u043d\u0434\u0435\u043a\u0441\u0430\u0446\u0438\u044e \u0434\u043b\u044f \u0440\u0430\u0431\u043e\u0442\u044b \u0441 \u043c\u0430\u0442\u0440\u0438\u0446\u0430\u043c\u0438<\/li>\n<li>\u043c\u0435\u0442\u043e\u0434\u044b \u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u0438: \u0440\u0430\u0431\u043e\u0442\u0430 \u0441 \u0434\u0430\u043d\u043d\u044b\u043c\u0438, \u0440\u0430\u0437\u043c\u0435\u0440 \u043a\u043e\u0442\u043e\u0440\u044b\u0445 \u043d\u0435 \u0440\u0430\u0432\u0435\u043d \u0441\u0442\u0435\u043f\u0435\u043d\u0438 \u0434\u0432\u043e\u0439\u043a\u0438, \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 shared memory, \u043f\u043e\u0432\u044b\u0448\u0435\u043d\u0438\u0435 \u043f\u0440\u043e\u043f\u0443\u0441\u043a\u043d\u043e\u0439 \u0441\u043f\u043e\u0441\u043e\u0431\u043d\u043e\u0441\u0442\u0438, \u0441\u043d\u0438\u0436\u0435\u043d\u0438\u0435 warp divergence<\/li>\n<li>\u043e\u0442\u043b\u0430\u0434\u043a\u0443 \u0438 \u043e\u0431\u0440\u0430\u0431\u043e\u0442\u043a\u0443 \u043e\u0448\u0438\u0431\u043e\u043a \u0447\u0435\u0440\u0435\u0437 runtime API checks<\/li>\n<\/ul>\n<p>\u041a \u043a\u043e\u043d\u0446\u0443 \u043a\u0443\u0440\u0441\u0430 \u0432\u044b \u0441\u043c\u043e\u0436\u0435\u0442\u0435 \u043f\u0440\u043e\u0435\u043a\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c, \u0430\u043d\u0430\u043b\u0438\u0437\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0438 \u0442\u043e\u043d\u043a\u043e \u043d\u0430\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0442\u044c CUDA kernels, \u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u043e \u0440\u0430\u0431\u043e\u0442\u0430\u044e\u0442 \u043d\u0430 \u0441\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u044b\u0445 GPU \u0438 \u043f\u043e\u0434\u0445\u043e\u0434\u044f\u0442 \u0434\u043b\u044f \u0441\u043b\u043e\u0436\u043d\u044b\u0445 \u043d\u0430\u0443\u0447\u043d\u044b\u0445, \u0438\u043d\u0436\u0435\u043d\u0435\u0440\u043d\u044b\u0445 \u0438 AI-\u0437\u0430\u0434\u0430\u0447.<\/p>\n<p> <b>\u0414\u043b\u044f \u043a\u043e\u0433\u043e \u044d\u0442\u043e\u0442 \u043a\u0443\u0440\u0441:<\/b> <\/p>\n<ul>\n<li>\u0434\u043b\u044f \u0432\u0441\u0435\u0445, \u043a\u0442\u043e \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u0443\u0435\u0442\u0441\u044f GPU \u0438 CUDA<\/li>\n<li>\u0434\u043b\u044f \u0441\u0442\u0443\u0434\u0435\u043d\u0442\u043e\u0432 \u0438\u043d\u0436\u0435\u043d\u0435\u0440\u043d\u044b\u0445 \u043d\u0430\u043f\u0440\u0430\u0432\u043b\u0435\u043d\u0438\u0439<\/li>\n<li>\u0434\u043b\u044f \u0438\u0441\u0441\u043b\u0435\u0434\u043e\u0432\u0430\u0442\u0435\u043b\u0435\u0439<\/li>\n<li>\u0434\u043b\u044f \u0432\u0441\u0435\u0445, \u043a\u0442\u043e \u0445\u043e\u0447\u0435\u0442 \u0433\u043b\u0443\u0431\u0436\u0435 \u0440\u0430\u0437\u043e\u0431\u0440\u0430\u0442\u044c\u0441\u044f \u0432 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e\u043c \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0438 \u043d\u0430 GPU<\/li>\n<\/ul>\n<p><b>\u0422\u0440\u0435\u0431\u043e\u0432\u0430\u043d\u0438\u044f:<\/b> <\/p>\n<ul>\n<li>\u0431\u0430\u0437\u043e\u0432\u044b\u0435 \u0437\u043d\u0430\u043d\u0438\u044f C \u0438 C++<\/li>\n<li>\u0431\u0430\u0437\u043e\u0432\u044b\u0435 \u0437\u043d\u0430\u043d\u0438\u044f Linux \u0438 Windows<\/li>\n<li>\u0431\u0430\u0437\u043e\u0432\u044b\u0435 \u0437\u043d\u0430\u043d\u0438\u044f \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440\u044b \u043a\u043e\u043c\u043f\u044c\u044e\u0442\u0435\u0440\u0430<\/li>\n<\/ul>\n<p><b>\u0421\u043e\u0434\u0435\u0440\u0436\u0430\u043d\u0438\u0435 \u043a\u0443\u0440\u0441\u0430:<\/b> <\/p>\n<ul>\n<li>12 \u0440\u0430\u0437\u0434\u0435\u043b\u043e\u0432<\/li>\n<li>58 \u043b\u0435\u043a\u0446\u0438\u0439<\/li>\n<li>23 \u0447 3 \u043c\u0438\u043d \u043e\u0431\u0449\u0435\u0439 \u043f\u0440\u043e\u0434\u043e\u043b\u0436\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u0438<\/li>\n<\/ul>\n<p><b>\u041f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0430 \u043a\u0443\u0440\u0441\u0430:<\/b><\/p>\n<p> <b>\u0412\u0432\u0435\u0434\u0435\u043d\u0438\u0435 \u0432 \u0430\u043f\u043f\u0430\u0440\u0430\u0442\u043d\u0443\u044e \u0447\u0430\u0441\u0442\u044c Nvidia GPU<\/b> <\/p>\n<ul>\n<li>GPU vs CPU<\/li>\n<li>\u0418\u0441\u0442\u043e\u0440\u0438\u044f Nvidia: \u043a\u0430\u043a \u043a\u043e\u043c\u043f\u0430\u043d\u0438\u044f \u043d\u0430\u0447\u0430\u043b\u0430 \u0434\u043e\u043c\u0438\u043d\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u0441\u0435\u043a\u0442\u043e\u0440\u0435 GPU<\/li>\n<li>\u0421\u0432\u044f\u0437\u044c \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440 \u0438 \u043f\u043e\u043a\u043e\u043b\u0435\u043d\u0438\u0439: Hopper, Ampere, GeForce, Tesla<\/li>\n<li>\u041a\u0430\u043a \u043e\u043f\u0440\u0435\u0434\u0435\u043b\u0438\u0442\u044c \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440\u0443 \u0438 \u043f\u043e\u043a\u043e\u043b\u0435\u043d\u0438\u0435<\/li>\n<li>\u0420\u0430\u0437\u043d\u0438\u0446\u0430 \u043c\u0435\u0436\u0434\u0443 GPU \u0438 \u0447\u0438\u043f\u043e\u043c GPU<\/li>\n<li>\u0410\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440\u044b \u0438 \u0441\u043e\u043e\u0442\u0432\u0435\u0442\u0441\u0442\u0432\u0443\u044e\u0449\u0438\u0435 \u0438\u043c \u0447\u0438\u043f\u044b<\/li>\n<li>\u0410\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440\u044b Nvidia GPU \u043e\u0442 Fermi \u0434\u043e Hopper<\/li>\n<li>\u041f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u044b \u0434\u043b\u044f \u0441\u0440\u0430\u0432\u043d\u0435\u043d\u0438\u044f \u0440\u0430\u0437\u043d\u044b\u0445 \u0430\u0440\u0445\u0438\u0442\u0435\u043a\u0442\u0443\u0440<\/li>\n<li>Half, single \u0438 double precision operations<\/li>\n<li>Compute capability \u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 GPU<\/li>\n<li>Volta, Ampere, Pascal, SIMD<\/li>\n<\/ul>\n<p><b>\u0423\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0430 CUDA \u0438 \u0434\u0440\u0443\u0433\u0438\u0445 \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c<\/b> <\/p>\n<ul>\n<li>\u041a\u0430\u043a\u0438\u0435 \u0432\u043e\u0437\u043c\u043e\u0436\u043d\u043e\u0441\u0442\u0438 \u0443\u0441\u0442\u0430\u043d\u0430\u0432\u043b\u0438\u0432\u0430\u044e\u0442\u0441\u044f \u0432\u043c\u0435\u0441\u0442\u0435 \u0441 CUDA Toolkit<\/li>\n<li>\u0423\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0430 CUDA \u0432 Windows<\/li>\n<li>\u0423\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0430 WSL \u0434\u043b\u044f \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u044f Linux \u0432 Windows<\/li>\n<li>\u0423\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0430 CUDA Toolkit \u0432 Linux<\/li>\n<\/ul>\n<p><b>\u0412\u0432\u0435\u0434\u0435\u043d\u0438\u0435 \u0432 \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 CUDA<\/b> <\/p>\n<ul>\n<li>GitHub-\u0440\u0435\u043f\u043e\u0437\u0438\u0442\u043e\u0440\u0438\u0439 \u043a\u0443\u0440\u0441\u0430<\/li>\n<li>\u0421\u043e\u043f\u043e\u0441\u0442\u0430\u0432\u043b\u0435\u043d\u0438\u0435 \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u043d\u043e\u0439 \u0447\u0430\u0441\u0442\u0438 CUDA \u0441 \u0430\u043f\u043f\u0430\u0440\u0430\u0442\u043d\u043e\u0439 \u0447\u0430\u0441\u0442\u044c\u044e<\/li>\n<li>Hello World program: threads \u0438 blocks<\/li>\n<li>\u041a\u043e\u043c\u043f\u0438\u043b\u044f\u0446\u0438\u044f CUDA \u0432 Linux<\/li>\n<li>Hello World program: Warp_IDs<\/li>\n<li>\u0421\u043b\u043e\u0436\u0435\u043d\u0438\u0435 \u0432\u0435\u043a\u0442\u043e\u0440\u043e\u0432 \u0438 \u0448\u0430\u0433\u0438 \u0434\u043b\u044f \u043b\u044e\u0431\u043e\u0433\u043e CUDA-\u043f\u0440\u043e\u0435\u043a\u0442\u0430<\/li>\n<li>\u0418\u043d\u0434\u0435\u043a\u0441\u0430\u0446\u0438\u044f \u0431\u043b\u043e\u043a\u043e\u0432 \u0438 \u043f\u043e\u0442\u043e\u043a\u043e\u0432<\/li>\n<li>\u0423\u0440\u043e\u0432\u043d\u0438 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u0438\u0437\u043c\u0430 \u043f\u0440\u0438 \u0440\u0430\u0431\u043e\u0442\u0435 \u0441 \u043e\u0447\u0435\u043d\u044c \u0431\u043e\u043b\u044c\u0448\u0438\u043c\u0438 \u0432\u0435\u043a\u0442\u043e\u0440\u0430\u043c\u0438<\/li>\n<\/ul>\n<p><b>\u041f\u0440\u043e\u0444\u0438\u043b\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435<\/b> <\/p>\n<ul>\n<li>\u041f\u043e\u043b\u0443\u0447\u0435\u043d\u0438\u0435 \u0441\u0432\u043e\u0439\u0441\u0442\u0432 \u0443\u0441\u0442\u0440\u043e\u0439\u0441\u0442\u0432\u0430 \u0447\u0435\u0440\u0435\u0437 Runtime API<\/li>\n<li>Nvidia-smi \u0438 \u0435\u0433\u043e \u043a\u043e\u043d\u0444\u0438\u0433\u0443\u0440\u0430\u0446\u0438\u0438<\/li>\n<li>Occupancy \u0438 \u0441\u043a\u0440\u044b\u0442\u0438\u0435 \u0437\u0430\u0434\u0435\u0440\u0436\u0435\u043a \u043d\u0430 GPU<\/li>\n<li>\u041a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e \u0430\u043a\u0442\u0438\u0432\u043d\u044b\u0445 \u0431\u043b\u043e\u043a\u043e\u0432 \u043d\u0430 \u043e\u0434\u0438\u043d SM<\/li>\n<li>\u0421\u043a\u043e\u043b\u044c\u043a\u043e \u0431\u043b\u043e\u043a\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u0432\u044b\u043f\u043e\u043b\u043d\u044f\u0442\u044c \u043e\u0434\u043d\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u043e \u043d\u0430 \u043e\u0434\u043d\u043e\u043c SM<\/li>\n<li>\u041d\u0430\u0447\u0430\u043b\u043e \u0440\u0430\u0431\u043e\u0442\u044b \u0441 Nsight Compute<\/li>\n<li>\u0418\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442\u044b \u043f\u0440\u043e\u0444\u0438\u043b\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f Nvidia: Nsight Systems, Nsight Compute, nvprof<\/li>\n<li>API \u0434\u043b\u044f \u043f\u0440\u043e\u0432\u0435\u0440\u043a\u0438 \u043e\u0448\u0438\u0431\u043e\u043a<\/li>\n<li>\u0410\u043d\u0430\u043b\u0438\u0437 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u0438 \u0447\u0435\u0440\u0435\u0437 \u043a\u043e\u043c\u0430\u043d\u0434\u043d\u0443\u044e \u0441\u0442\u0440\u043e\u043a\u0443<\/li>\n<li>\u0413\u0440\u0430\u0444\u0438\u0447\u0435\u0441\u043a\u0438\u0439 Nsight Compute \u0432 Windows \u0438 Linux<\/li>\n<\/ul>\n<p><b>\u0410\u043d\u0430\u043b\u0438\u0437 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u0438 \u043f\u0440\u0435\u0434\u044b\u0434\u0443\u0449\u0438\u0445 \u043f\u0440\u0438\u043b\u043e\u0436\u0435\u043d\u0438\u0439<\/b> <\/p>\n<ul>\n<li>\u0410\u043d\u0430\u043b\u0438\u0437 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u0438<\/li>\n<li>\u0421\u043b\u043e\u0436\u0435\u043d\u0438\u0435 \u0432\u0435\u043a\u0442\u043e\u0440\u043e\u0432 \u0441 \u0440\u0430\u0437\u043c\u0435\u0440\u043e\u043c, \u043d\u0435 \u044f\u0432\u043b\u044f\u044e\u0449\u0438\u043c\u0441\u044f \u0441\u0442\u0435\u043f\u0435\u043d\u044c\u044e \u0434\u0432\u043e\u0439\u043a\u0438<\/li>\n<\/ul>\n<p><b>\u0414\u0432\u0443\u043c\u0435\u0440\u043d\u0430\u044f \u0438\u043d\u0434\u0435\u043a\u0441\u0430\u0446\u0438\u044f<\/b> <\/p>\n<ul>\n<li>\u0421\u043b\u043e\u0436\u0435\u043d\u0438\u0435 \u043c\u0430\u0442\u0440\u0438\u0446 \u0441 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435\u043c \u0434\u0432\u0443\u043c\u0435\u0440\u043d\u044b\u0445 \u0431\u043b\u043e\u043a\u043e\u0432 \u0438 \u043f\u043e\u0442\u043e\u043a\u043e\u0432<\/li>\n<li>\u041f\u043e\u0447\u0435\u043c\u0443 L1 hit-rate \u0440\u0430\u0432\u0435\u043d \u043d\u0443\u043b\u044e<\/li>\n<\/ul>\n<p><b>Shared Memory \u0438 Warp Divergence<\/b> <\/p>\n<ul>\n<li>Shared memory<\/li>\n<li>Quiz 1<\/li>\n<li>Warp divergence<\/li>\n<\/ul>\n<p><b>\u0418\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442\u044b \u043e\u0442\u043b\u0430\u0434\u043a\u0438<\/b> <\/p>\n<ul>\n<li>\u041e\u0442\u043b\u0430\u0434\u043a\u0430 \u0441 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435\u043c Visual Studio<\/li>\n<\/ul>\n<p><b>Vector Reduction<\/b> <\/p>\n<ul>\n<li>Vector reduction \u0442\u043e\u043b\u044c\u043a\u043e \u0441 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435\u043c global memory<\/li>\n<li>\u0420\u0430\u0437\u0431\u043e\u0440 \u043a\u043e\u0434\u0430 \u0438 \u043f\u0440\u043e\u0444\u0438\u043b\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 vector reduction<\/li>\n<li>\u041e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f vector reduction<\/li>\n<li>Race condition \u0438 \u0432\u043e\u0437\u043c\u043e\u0436\u043d\u043e\u0441\u0442\u0438 \u043e\u0442\u043b\u0430\u0434\u043a\u0438<\/li>\n<li>\u041e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u044f \u043f\u043e\u0442\u043e\u043a\u043e\u0432<\/li>\n<li>\u041e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f \u0447\u0435\u0440\u0435\u0437 shared memory \u0438 unrolling<\/li>\n<li>\u041e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f \u0447\u0435\u0440\u0435\u0437 shuffle operations<\/li>\n<\/ul>\n<p><b>Roofline Model<\/b> <\/p>\n<ul>\n<li>Roofline analysis: \u043f\u0440\u0438\u043b\u043e\u0436\u0435\u043d\u0438\u044f, \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d\u043d\u044b\u0435 \u0432\u044b\u0447\u0438\u0441\u043b\u0435\u043d\u0438\u044f\u043c\u0438 \u0438 \u043f\u0430\u043c\u044f\u0442\u044c\u044e<\/li>\n<\/ul>\n<p>    \t\u0421\u043f\u043e\u0439\u043b\u0435\u0440: \u041d\u0430 \u044f\u0437\u044b\u043a\u0435 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b\u0430: \t<b>Performance Optimization and Analysis for High-Performance Computing<\/b><\/p>\n<p> This hands-on course teaches you how to unlock the huge parallel-processing power of modern GPUs with CUDA. You\u2019ll start with the fundamentals of GPU hardware, trace the evolution of flagship architectures (Fermi \u2192 Pascal \u2192 Volta \u2192 Ampere \u2192 Hopper), and learn\u2014through code-along labs\u2014how to write, profile, and optimize high-performance kernels.<br \/> This is an independent training resource. It is not sponsored by, endorsed by, or otherwise affiliated with NVIDIA Corporation. \u201cCUDA\u201d, \u201cNsight\u201d, and the architecture codenames are trademarks of NVIDIA and are used here only as factual references.<\/p>\n<p> <b>What you&#039;ll learn<\/b> <\/p>\n<ul>\n<li>Comprehensive Understanding of GPU vs CPU Architecture<\/li>\n<li>learn the history of graphical processing unit (GPU) until the most recent products<\/li>\n<li>Understand the internal structure of GPU<\/li>\n<li>Understand the different types of memories and how they affect the performance<\/li>\n<li>Understand the most recent technologies in the GPU internal components<\/li>\n<li>Understand the basics of the CUDA programming on GPU<\/li>\n<li>Start programming GPU using both CUDA on Both windows and linux<\/li>\n<li>understand the most efficient ways for parallelization<\/li>\n<li>Profiling and Performance Tuning<\/li>\n<li>Leveraging Shared Memory<\/li>\n<\/ul>\n<p><b>What you\u2019ll master<\/b> <\/p>\n<ul>\n<li>GPU vs. CPU fundamentals \u2013 why GPUs dominate data-parallel workloads.<\/li>\n<li>Generational design advances \u2013 the hardware features that matter most for performance.<\/li>\n<li>CUDA toolkit installation \u2013 Windows, Linux, and WSL, plus first-run sanity checks.<\/li>\n<li>Core CUDA concepts \u2013 threads, blocks, grids, and the memory hierarchy, built up with labs such as vector addition.<\/li>\n<li>Profiling &amp; tuning with Nsight Compute \/ nvprof \u2013 measure occupancy, hide latency, and break bottlenecks.<\/li>\n<li>2-D indexing for matrices \u2013 write efficient kernels for real-world linear-algebra tasks.<\/li>\n<li>Optimization playbook \u2013 handle non-power-of-two data, leverage shared memory, maximize bandwidth, and minimize warp divergence.<\/li>\n<li>Robust debugging &amp; error handling \u2013 use runtime-API checks to ship production-ready code.<\/li>\n<\/ul>\n<p>By the end, you\u2019ll be able to design, analyze, and fine-tune CUDA kernels that run efficiently on today\u2019s GPUs\u2014equipping you to tackle demanding scientific, engineering, and AI workloads.<\/p>\n<p> <b>Who this course is for:<\/b> <\/p>\n<ul>\n<li>For any one interested in GPU and CUDA like engineering students, researchers and any other one<\/li>\n<\/ul>\n<p><b>Requirements<\/b> <\/p>\n<ul>\n<li>C and C++ basics<\/li>\n<li>Linux and windows basics<\/li>\n<li>Computer Architecture basics<\/li>\n<\/ul>\n<p><b>Course content<\/b><\/p>\n<p> 12 sections \u2022 58 lectures \u2022 23h 3m total length<\/p>\n<p> <b>Introduction to the Nvidia GPUs hardware<\/b><br \/> 12 lectures \u2022 2hr 52min <\/p>\n<ul>\n<li>GPU vs CPU (very important)<\/li>\n<li>NVidia&#039;s history (How Nvidia started dominating the GPU sector)<\/li>\n<li>Architectures and Generations relationship [Hopper, Ampere, GeForce and Tesla]<\/li>\n<li>How to know the Architecture and Generation<\/li>\n<li>The difference between the GPU and the GPU Chip<\/li>\n<li>The architectures and the corresponding chips<\/li>\n<li>Nvidia GPU architectures From Fermi to hopper<\/li>\n<li>Parameters required to compare between different Architectures<\/li>\n<li>Please don&#039;t skip this video. It is pivotal for the the whole course.<\/li>\n<li>Half, single and double precision operations<\/li>\n<li>Compute capability and utilizations of the GPUs<\/li>\n<li>Before reading any whitepapers !! look at this<\/li>\n<li>Volta+Ampere+Pascal+SIMD (Don&#039;t skip)<\/li>\n<\/ul>\n<p><b>Installing Cuda and other programs<\/b><br \/> 4 lectures \u2022 22min <\/p>\n<ul>\n<li>What features installed with the CUDA toolkit?<\/li>\n<li>Installing CUDA on Windows<\/li>\n<li>Installing WSL to use Linux on windows OS.<\/li>\n<li>Installing Cuda toolkits on Linux<\/li>\n<\/ul>\n<p><b>Introduction to CUDA programming<\/b><br \/> 8 lectures \u2022 1hr 52min <\/p>\n<ul>\n<li>The course github repo<\/li>\n<li>Mapping SW from CUDA to HW + introducing CUDA.<\/li>\n<li>001 Hello World program (threads &#8212; Blocks)<\/li>\n<li>Compiling Cuda on Linux<\/li>\n<li>002 Hello World program ( Warp_IDs)<\/li>\n<li>003 : Vector addition + the Steps for any CUDA project<\/li>\n<li>004 : Vector addition + blocks and thread indexing + GPU performance<\/li>\n<li>005 levels of parallelization &#8212; Vector addition with Extra-large vectors<\/li>\n<\/ul>\n<p><b>Profiling<\/b><br \/> 9 lectures \u2022 4hr 18min <\/p>\n<ul>\n<li>Query the device properties using the Runtime APIs<\/li>\n<li>Nvidia-smi and its configurations (Linux User)<\/li>\n<li>The GPU&#039;s Occupancy and Latency hiding<\/li>\n<li>Allocated active blocks per SM (important)<\/li>\n<li>how many blocks can we run concurrently per SM?<\/li>\n<li>Starting with the nsight compute (first issue)<\/li>\n<li>All profiling tools from NVidia (Nsight systems &#8212; compute &#8212; nvprof &#8230;)<\/li>\n<li>Error checking APIs<\/li>\n<li>Nsight Compute performance using command line analysis<\/li>\n<li>Graphical Nsight Compute (windows and linux)<\/li>\n<\/ul>\n<p><b>Performance analysis for the previous applications<\/b><br \/> 2 lectures \u2022 45min <\/p>\n<ul>\n<li>Performance analysis<\/li>\n<li>Vector addition with a size not power of 2 !!! important<\/li>\n<\/ul>\n<p><b>2D Indexing<\/b><br \/> 2 lectures \u2022 1hr 16min <\/p>\n<ul>\n<li>Matrices addition using 2D of blocks and threads<\/li>\n<li>Why L1 Hit-rate is zero?<\/li>\n<\/ul>\n<p><b>Shared Memory + Warp Divergence<\/b><br \/> 2 lectures \u2022 50min <\/p>\n<ul>\n<li>The shared memory<\/li>\n<li>Quiz 1<\/li>\n<li>Warp Divergence<\/li>\n<\/ul>\n<p><b>Debugging tools<\/b><br \/> 1 lecture \u2022 40min <\/p>\n<ul>\n<li>Debugging using visual studio (important) 1<\/li>\n<\/ul>\n<p><b>Vector Reduction<\/b><br \/> 7 lectures \u2022 4hr 30min <\/p>\n<ul>\n<li>Vector Reduction using global memory only (baseline)<\/li>\n<li>Understanding the code and the profiling of the vector reduction<\/li>\n<li>Optimizing the vector reduction (removing the filter)<\/li>\n<li>The Race Condition and the debugging option<\/li>\n<li>Optimizing the thread utilizations on vector reduction<\/li>\n<li>Optimization using shared memory and unrolling<\/li>\n<li>Shuffle operations optimizations<\/li>\n<\/ul>\n<p><b>Roofline model<\/b><br \/> 1 lecture \u2022 43min <\/p>\n<ul>\n<li>Roofline Analysis Compute and Memory bounds apps)<\/li>\n<\/ul>\n<p>About the author:<\/p>\n<p> Hamdy egy is a Research Assistant and a Ph.D. student. He graduated from the Computer and System Engineering Department in 2012 and was ranked second in his class. After graduation, he worked as a teaching assistant in the same department for about 10 years. He also worked as an embedded systems instructor for 5 years. <br \/> \u0410\u0432\u0442\u043e\u0440: Hamdy egy &#8212; \u0438\u0441\u0441\u043b\u0435\u0434\u043e\u0432\u0430\u0442\u0435\u043b\u044c\u0441\u043a\u0438\u0439 \u0430\u0441\u0441\u0438\u0441\u0442\u0435\u043d\u0442 \u0438 PhD-\u0441\u0442\u0443\u0434\u0435\u043d\u0442. \u041e\u043d \u043e\u043a\u043e\u043d\u0447\u0438\u043b \u0444\u0430\u043a\u0443\u043b\u044c\u0442\u0435\u0442 \u043a\u043e\u043c\u043f\u044c\u044e\u0442\u0435\u0440\u043d\u043e\u0439 \u0438 \u0441\u0438\u0441\u0442\u0435\u043c\u043d\u043e\u0439 \u0438\u043d\u0436\u0435\u043d\u0435\u0440\u0438\u0438 \u0432 2012 \u0433\u043e\u0434\u0443 \u0438 \u0437\u0430\u043d\u044f\u043b \u0432\u0442\u043e\u0440\u043e\u0435 \u043c\u0435\u0441\u0442\u043e \u0432 \u0441\u0432\u043e\u0435\u043c \u0432\u044b\u043f\u0443\u0441\u043a\u0435. \u041f\u043e\u0441\u043b\u0435 \u043e\u043a\u043e\u043d\u0447\u0430\u043d\u0438\u044f \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f \u043e\u043d \u043e\u043a\u043e\u043b\u043e 10 \u043b\u0435\u0442 \u0440\u0430\u0431\u043e\u0442\u0430\u043b \u0430\u0441\u0441\u0438\u0441\u0442\u0435\u043d\u0442\u043e\u043c \u043f\u0440\u0435\u043f\u043e\u0434\u0430\u0432\u0430\u0442\u0435\u043b\u044f \u043d\u0430 \u0442\u043e\u043c \u0436\u0435 \u0444\u0430\u043a\u0443\u043b\u044c\u0442\u0435\u0442\u0435. \u0422\u0430\u043a\u0436\u0435 \u043e\u043d 5 \u043b\u0435\u0442 \u0440\u0430\u0431\u043e\u0442\u0430\u043b \u0438\u043d\u0441\u0442\u0440\u0443\u043a\u0442\u043e\u0440\u043e\u043c \u043f\u043e \u0432\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0435\u043c\u044b\u043c \u0441\u0438\u0441\u0442\u0435\u043c\u0430\u043c.<\/p>\n<p> \u0426\u0435\u043d\u0430 1500 \u0440\u0443\u0431. (14,99 \u0435\u0432\u0440\u043e)<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u0421\u043a\u043b\u0430\u0434\u0447\u0438\u043d\u0430: \u041e\u0441\u0432\u043e\u0435\u043d\u0438\u0435 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e\u0433\u043e \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f \u043d\u0430 GPU \u0441 CUDA: (HW &amp; SW) [Udemy] [Hamdy egy] Mastering GPU Parallel Programming with CUDA: ( HW &amp; SW ) \u042f\u0437\u044b\u043a: \u0430\u043d\u0433\u043b\u0438\u0439\u0441\u043a\u0438\u0439 \u041e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f \u0438 \u0430\u043d\u0430\u043b\u0438\u0437 \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u0438 \u0434\u043b\u044f \u0432\u044b\u0441\u043e\u043a\u043e\u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u044b\u0445 \u0432\u044b\u0447\u0438\u0441\u043b\u0435\u043d\u0438\u0439 \u042d\u0442\u043e \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 \u043a\u0443\u0440\u0441, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043f\u043e\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442, \u043a\u0430\u043a \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u043e\u0433\u0440\u043e\u043c\u043d\u0443\u044e \u043c\u043e\u0449\u043d\u043e\u0441\u0442\u044c \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e\u0439 \u043e\u0431\u0440\u0430\u0431\u043e\u0442\u043a\u0438 \u0441\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u044b\u0445 GPU \u0441 \u043f\u043e\u043c\u043e\u0449\u044c\u044e CUDA. \u0412\u044b \u043d\u0430\u0447\u043d\u0451\u0442\u0435 \u0441 \u043e\u0441\u043d\u043e\u0432 \u0430\u043f\u043f\u0430\u0440\u0430\u0442\u043d\u043e\u0439 [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2],"tags":[],"class_list":["post-65073","post","type-post","status-publish","format-standard","hentry","category-rss"],"_links":{"self":[{"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=\/wp\/v2\/posts\/65073","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=65073"}],"version-history":[{"count":0,"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=\/wp\/v2\/posts\/65073\/revisions"}],"wp:attachment":[{"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=65073"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=65073"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/rss.eground-zerkalo.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=65073"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}