首頁 > 軟體

AVX2指令集浮點乘法效能分析

2022-05-18 16:02:16

一、AVX2指令集介紹

AVX2是SIMD(單指令多資料流)指令集,支援在一個指令週期內同時對256位記憶體進行操作。包含乘法,加法,位運算等功能。下附Intel官網使用檔案。

Intel® Intrinsics Guide

我們本次要用到的指令有 **__m256 _mm256_mul_ps(__m256 a, __m256 b), __m256d_mm256_mul_pd(__m256d a, __m256d b)**等,(p代表精度precision,s代表single,d代表double)

它們可以一次取256位的記憶體,並按32/64位元一個浮點進行乘法運算。下附官網描述。

Synopsis

__m256d _mm256_mul_pd (__m256d a, __m256d b)

#include <immintrin.h>

Instruction: vmulpd ymm, ymm, ymm

CPUID Flags: AVX

Description

Multiply packed double-precision (64-bit) floating-point elements in a and b, and store the results in dst.

Operation

FOR j := 0 to 3
	i := j*64
	dst[i+63:i] := a[i+63:i] * b[i+63:i]
ENDFOR
dst[MAX:256] := 0

Performance

ArchitectureLatencyThroughput (CPI)
Icelake40.5
Skylake40.5
Broadwell30.5
Haswell50.5
Ivy Bridge51

二、程式碼實現

0. 資料生成

為了比較結果,我們用1+1e-8填充。這裡利用模版相容不同資料型別。由於AVX2指令集一次要操作多個資料,為了防止訪存越界,我們將大小擴充套件到256的整數倍位位元,也就是32位元組的整數倍。

uint64_t lowbit(uint64_t x)
{
    return x & (-x);
}
uint64_t extTo2Power(uint64_t n, int i)//arraysize datasize
{
    while(lowbit(n) < i)
        n += lowbit(n);
    return n;
}
template <typename T>
T* getArray(uint64_t size)
{
    uint64_t ExSize = extTo2Power(size, 32/sizeof(T));
    T* arr = new T[ExSize];
    for (uint64_t i = 0; i < size; i++)
        arr[i] = 1.0+1e-8;
    for (uint64_t i = size; i < ExSize; i++)
        arr[i] = 1.0;
    return arr;
}
}

1. 普通連乘

為了比較效能差異,我們先實現一份普通連乘。這裡也使用模版。

template <typename T>
T simpleProduct(T* arr, uint64_t size)
{
    T product = 1;
    for (uint64_t i = 0; i < size; i++)
        product *= arr[i];
    return product;
}

2. AVX2指令集乘法:單精度浮點(float)

這裡我們預開一個avx2的整形變數,每次從陣列中取8個32位元浮點,乘到這個變數上,最後在對這8個32位元浮點進行連乘。

float avx2Product(float* arr, uint64_t size)
{
    float product[8] = {1};
    __m256 product256 = _mm256_setr_ps(1, 1, 1, 1, 1, 1, 1, 1);
    __m256 load256 = _mm256_setzero_ps();
    for (uint64_t i = 0; i < size; i += 8)
    {
        load256 = _mm256_loadu_ps(&arr[i]);
        product256 = _mm256_mul_ps(product256, load256);
    }
    _mm256_storeu_ps(product, product256);
    product[0] *= product[1] * product[2] * product[3] * product[4] * product[5] * product[6] * product[7];
    return product[0];
}

3. AVX2指令集乘法:雙精度浮點(double)

double avx2Product(double* arr, uint64_t size)
{
    double product[4] = {1};
    __m256d product256 = _mm256_setr_pd(1, 1, 1, 1);
    __m256d load256 = _mm256_setzero_pd();
    for (uint64_t i = 0; i < size; i += 4)
    {
        load256 = _mm256_loadu_pd(&arr[i]);
        product256 = _mm256_mul_pd(product256, load256);
    }
    _mm256_storeu_pd(product, product256);
    product[0] *= product[1] * product[2] * product[3];
    return product[0];
}

三、效能測試

測試環境

DeviceDescription
CPUIntel Core i9-9880H 8-core 2.3GHz
MemoryDDR4-2400MHz Dual-Channel 32GB
complierApple Clang-1300.0.29.30

計時方式

利用chrono庫獲取系統時鐘計算執行時間,精確到毫秒級

uint64_t getTime()
{
    uint64_t timems = std::chrono::duration_cast<std::chrono::milliseconds>(std::chrono::system_clock::now().time_since_epoch()).count();
    return timems;
}

測試內容

	uint64_t N = 1e8;
    // compare the performance of simpleProduct and avx2Product
    uint64_t start, end;
    //compare float
    cout << "compare float product" << endl;
    float* arr = getArray<float>(N);
    start = getTime();
    float simpleProductResult = simpleProduct(arr, N);
    end = getTime();
    cout << "Simple product: " << simpleProductResult << endl;
    cout << "Time: " << end - start << " ms" << endl;
    cout << endl;
    start = getTime();
    float avx2ProductResult = avx2Product(arr, N);
    end = getTime();
    cout << "AVX2 product: " << avx2ProductResult << endl;
    cout << "Time: " << end - start << " ms" << endl;
    cout << endl;
    delete[] arr;
    //compare double
    cout << "compare double product" << endl;
    double* arr2 = getArray<double>(N);
    start = getTime();
    double simpleProductResult2 = simpleProduct(arr2, N);
    end = getTime();
    cout << "Simple product: " << simpleProductResult2 << endl;
    cout << "Time: " << end - start << " ms" << endl;
    cout << endl;
    start = getTime();
    double avx2ProductResult2 = avx2Product(arr2, N);
    end = getTime();
    cout << "AVX2 product: " << avx2ProductResult2 << endl;
    cout << "Time: " << end - start << " ms" << endl;
    cout << endl;
    delete[] arr2;

進行效能測試

第一次測試

測試命令

g++ -mavx2 avx_product.cpp 
./a.out

測試結果 方法耗時(ms)AVX2乘法 單精度57普通乘法 單精度232AVX2乘法 雙精度121普通乘法 雙精度243

這裡能看到單精度下已經出現了比較明顯的誤差,同時由於CPU內部沒有普通的單精度浮點運算器,所以單精度運算和雙精度耗時所差無幾。

第二次測試

測試命令

現在我們再開啟O2編譯優化試一試:

g++ -O2 -mavx2 avx_product.cpp 
./a.out

測試結果

方法耗時(ms)
AVX2乘法 單精度19
普通乘法 單精度102
AVX2乘法 雙精度44
普通乘法 雙精度129

四、總結

經過幾次測試,我們可以大概得出,AVX指令集在浮點的運算上有比較高的效能,而整形運算的提升則沒那麼明顯,同時AVX2執行一次運算大致會消耗雙精度運算2倍的時間,所以如果需要運算的資料小於2個,則用AVX2得不到提升。

個人猜測原因:

  • CPU內部整形運算器多於浮點運算器,所以啟用優化時整形普通運算能得到更多提升。
  • AVX2指令集專門針對浮點型進行過優化。使得運算邏輯閘的關鍵路徑長度小於普通浮點運算。

以上就是AVX2指令集浮點乘法效能分析的詳細內容,更多關於AVX2指令集浮點乘法的資料請關注it145.com其它相關文章!


IT145.com E-mail:sddin#qq.com