首頁 > 軟體

Python巨量資料用Numpy Array的原因解讀

2022-02-19 16:00:56

Numpy 是Python科學計算的一個核心模組。它提供了非常高效的陣列物件,以及用於處理這些陣列物件的工具。一個Numpy陣列由許多值組成,所有值的型別是相同的。

Python的核心庫提供了 List 列表。列表是最常見的Python資料型別之一,它可以調整大小並且包含不同型別的元素,非常方便。

那麼List和Numpy Array到底有什麼區別?為什麼我們需要在巨量資料處理的時候使用Numpy Array?答案是效能。

Numpy資料結構在以下方面表現更好:

1.記憶體大小—Numpy資料結構佔用的記憶體更小。

2.效能—Numpy底層是用C語言實現的,比列表更快。

3.運算方法—內建優化了代數運算等方法。

下面分別講解在巨量資料處理時,Numpy陣列相對於List的優勢。

1.記憶體佔用更小

適當地使用Numpy陣列替代List,你能讓你的記憶體佔用降低20倍。

對於Python原生的List列表,由於每次新增物件,都需要8個位元組來參照新物件,新的物件本身佔28個位元組(以整數為例)。所以列表 list 的大小可以用以下公式計算:

64 + 8 * len(lst) + len(lst) * 28 位元組

而使用Numpy,就能減少非常多的空間佔用。比如長度為n的Numpy整形Array,它需要:

96 + len(a) * 8 位元組

可見,陣列越大,你節省的記憶體空間越多。假設你的陣列有10億個元素,那麼這個記憶體佔用大小的差距會是GB級別的。

2.速度更快、內建計算方法

執行下面這個指令碼,同樣是生成某個維度的兩個陣列並相加,你就能看到原生List和Numpy Array的效能差距。

import time
import numpy as np
size_of_vec = 1000
def pure_python_version():
    t1 = time.time()
    X = range(size_of_vec)
    Y = range(size_of_vec)
    Z = [X[i] + Y[i] for i in range(len(X)) ]
    return time.time() - t1
def numpy_version():
    t1 = time.time()
    X = np.arange(size_of_vec)
    Y = np.arange(size_of_vec)
    Z = X + Y
    return time.time() - t1
t1 = pure_python_version()
t2 = numpy_version()
print(t1, t2)
print("Numpy is in this example " + str(t1/t2) + " faster!")

結果如下:

0.00048732757568359375 0.0002491474151611328
Numpy is in this example 1.955980861244019 faster!

可以看到,Numpy比原生陣列快1.95倍。

如果你細心的話,還能發現,Numpy array可以直接執行加法操作。而原生的陣列是做不到這點的,這就是Numpy 運算方法的優勢。

我們再做幾次重複試驗,以證明這個效能優勢是永續性的。

import numpy as np
from timeit import Timer
size_of_vec = 1000
X_list = range(size_of_vec)
Y_list = range(size_of_vec)
X = np.arange(size_of_vec)
Y = np.arange(size_of_vec)
def pure_python_version():
    Z = [X_list[i] + Y_list[i] for i in range(len(X_list)) ]
def numpy_version():
    Z = X + Y
timer_obj1 = Timer("pure_python_version()",
                   "from __main__ import pure_python_version")
timer_obj2 = Timer("numpy_version()",
                   "from __main__ import numpy_version")
print(timer_obj1.timeit(10))
print(timer_obj2.timeit(10)) # Runs Faster!
print(timer_obj1.repeat(repeat=3, number=10))
print(timer_obj2.repeat(repeat=3, number=10)) # repeat to prove it!

結果如下:

0.0029753120616078377
0.00014940369874238968
[0.002683573868125677, 0.002754641231149435, 0.002803879790008068]
[6.536301225423813e-05, 2.9387418180704117e-05, 2.9171351343393326e-05]

可以看到,第二個輸出的時間總是小得多,這就證明了這個效能優勢是具有永續性的。

所以,如果你在做一些巨量資料研究,比如金融資料、股票資料的研究,使用Numpy能夠節省你不少記憶體空間,並擁有更強大的效能。 ​

到此這篇關於Python巨量資料為啥一定要用Numpy Array的文章就介紹到這了,更多相關Python巨量資料Numpy Array內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!


IT145.com E-mail:sddin#qq.com