Кто-нибудь здесь использовал научные вычисления двойной точности с графическими процессорами нового поколения (например, K20) через Python? Я знаю, что эта технология быстро развивается, но каков наилучший способ сделать это в настоящее время? GPU не входит в число популярных научных библиотек...