<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
std::memset 的記憶體填充單位固定為位元組(char),所以不能應用與double,非char型別只適合置0。
std::fill 和 std::fill_n 則可以對指定型別進行記憶體填充,更加通用。
std::memcpy 則可以講記憶體中排列好的資料拷貝過去,不同位置可填充不同值。
double dp[505]; std::memset(dp, -1.0, 505 * sizeof(double));//錯誤的 ★★★,memset的單位是位元組(char),我們需要的是fill
double dp[505]; std::fill(dp, dp + 505, -1.0); std::fill(std::begin(dp), std::end(dp), -1.0); std::fill_n(dp, 505, -1.0);
double dp[505]; double data[5] = {11,22,33,44,55}; std::memcpy(dp, data, 5 * sizeof(double))
在c++11中引入了智慧指標這個概念,這個非常好,但是有一個問題顯然被忘記了,如何動態建立智慧指標陣列,在c++11中沒有提供直接的函數。換句話說,建立智慧指標的make_shared,不支援建立陣列。那在c++11中如何建立一個智慧指標陣列呢?只能自己封裝或者變通實現,在c++14後可以支援建構函式建立智慧指標陣列,可這仍然不太符合技術規範發展的一致性,可繼承性。
共用指標share_ptr 和 唯一指標unique_ptr 可能並不是一個很完整的方式,因為預設情況下需要開發人員手動的指定 delete handler。 但是隻需要簡單的封裝一下就可以是更智慧的方式,就是自動生成 delete handler。並且不必使用new(或者其他的指標形式)作為構造引數,而是直接通過 allocate 和 construct 兩種形式,最抽象簡單直觀的方式得到想要的。
shared_ptr<T> pt0(new T());// 將會自動採用 std::default_delete shared_ptr<int> p1 = make_shared<int>(); //指定 default_delete 作為釋放規則 std::shared_ptr<int> p6(new int[10], std::default_delete<int[]>()); //自定義釋放規則 void deleteInt(int*p) { delete []p; } std::shared_ptr<int> p3(new int[10], deleteInt);
我們期待的規範後是這樣使用的:不用考慮 釋放規則,而且分為 allocate 和 construct 兩種形式。
auto uptr = Alloc::unique_allocate<Foo>(sizeof(Foo)); auto sptr = Alloc::shared_allocate<Foo>(sizeof(Foo)); auto uptr = Alloc::unique_construct<Foo>(); auto sptr = Alloc::shared_construct<Foo>('6', '7');
allocator.h
#ifndef UTILS_ALLOCATOR_H #define UTILS_ALLOCATOR_H #include <cstdlib> #include <map> #include <memory> #include <utility> #include "base_config.h" namespace st { // 工具類(單例) class Alloc { public: // allocate 刪除器 class trivial_delete_handler { public: trivial_delete_handler(index_t size_) : size(size_) {} void operator()(void* ptr) { deallocate(ptr, size); } private: index_t size; }; // construct 刪除器 template<typename T> class nontrivial_delete_handler { public: void operator()(void* ptr) { static_cast<T*>(ptr)->~T(); deallocate(ptr, sizeof(T)); } }; // unique_ptr :對應 allocate template<typename T> using TrivialUniquePtr = std::unique_ptr<T, trivial_delete_handler>; // unique_ptr :對應 construct template<typename T> using NontrivialUniquePtr = std::unique_ptr<T, nontrivial_delete_handler<T>>; // I know it's weird here. The type has been already passed in as T, but the // function parameter still need the number of bytes, instead of objects. // And their relationship is // nbytes = nobjects * sizeof(T). // Check what I do in "tensor/storage.cpp", and you'll understand. // Or maybe changing the parameter here and doing some extra work in // "tensor/storage.cpp" is better. // 共用指標 allocate // 目的:自動生成 delete handler template<typename T> static std::shared_ptr<T> shared_allocate(index_t nbytes) { void* raw_ptr = allocate(nbytes); return std::shared_ptr<T>( static_cast<T*>(raw_ptr), trivial_delete_handler(nbytes) ); } // 唯一指標 allocate // 目的:自動生成 delete handler template<typename T> static TrivialUniquePtr<T> unique_allocate(index_t nbytes) { //開闢 記憶體 void* raw_ptr = allocate(nbytes); //返回 unique_ptr(自動生成了刪除器) return TrivialUniquePtr<T>( static_cast<T*>(raw_ptr), trivial_delete_handler(nbytes) ); } // 共用指標 construct // 目的:自動生成 delete handler template<typename T, typename... Args> static std::shared_ptr<T> shared_construct(Args&&... args) { void* raw_ptr = allocate(sizeof(T)); new(raw_ptr) T(std::forward<Args>(args)...); return std::shared_ptr<T>( static_cast<T*>(raw_ptr), nontrivial_delete_handler<T>() ); } // 唯一指標 construct // 目的:自動生成 delete handler template<typename T, typename... Args> static NontrivialUniquePtr<T> unique_construct(Args&&... args) { void* raw_ptr = allocate(sizeof(T)); new(raw_ptr) T(std::forward<Args>(args)...); return NontrivialUniquePtr<T>( static_cast<T*>(raw_ptr), nontrivial_delete_handler<T>() ); } static bool all_clear(void); private: Alloc() = default; ~Alloc(){ /* release unique ptr, the map will not do destruction!!! */ for (auto iter = cache_.begin(); iter != cache_.end(); ++iter) { iter->second.release(); } } static Alloc& self(); // 單例 static void* allocate(index_t size); static void deallocate(void* ptr, index_t size); static index_t allocate_memory_size; static index_t deallocate_memory_size; struct free_deletor { void operator()(void* ptr) { std::free(ptr); } }; // multimap 允許容器有重複的 key 值 // 保留開闢過又釋放掉的堆記憶體,再次使用的時候可重複使用(省略了查詢可用堆記憶體的操作) std::multimap<index_t, std::unique_ptr<void, free_deletor>> cache_; }; } // namespace st #endif
allocator.cpp
#include "allocator.h" #include "exception.h" #include <iostream> namespace st { index_t Alloc::allocate_memory_size = 0; index_t Alloc::deallocate_memory_size = 0; Alloc& Alloc::self() { static Alloc alloc; return alloc; } void* Alloc::allocate(index_t size) { auto iter = self().cache_.find(size); void* res; if(iter != self().cache_.end()) { // 臨時:為什麼要這麼做?找到了為社麼要刪除 res = iter->second.release();//釋放指標指向記憶體 self().cache_.erase(iter);//擦除 } else { res = std::malloc(size); CHECK_NOT_NULL(res, "failed to allocate %d memory.", size); } allocate_memory_size += size; return res; } void Alloc::deallocate(void* ptr, index_t size) { deallocate_memory_size += size; // 本質上是保留保留 堆記憶體中的位置,下一次可直接使用,而不是重新開闢 self().cache_.emplace(size, ptr); // 插入 } bool Alloc::all_clear() { return allocate_memory_size == deallocate_memory_size; } } // namespace st
使用:封裝成 unique_allocate、unique_construct、share_allocate、share_construct 的目的就是對 share_ptr 和 unique_ptr 的生成自動賦予其對應的 delete handler。
struct Foo { static int ctr_call_counter; static int dectr_call_counter; char x_; char y_; Foo() { ++ctr_call_counter; } Foo(char x, char y) : x_(x), y_(y) { ++ctr_call_counter; } ~Foo() { ++dectr_call_counter; } }; int Foo::ctr_call_counter = 0; int Foo::dectr_call_counter = 0; void test_Alloc() { using namespace st; // allocate 開闢空間 // construct 開闢空間 + 賦值 void* ptr; {// auto uptr = Alloc::unique_allocate<Foo>(sizeof(Foo)); CHECK_EQUAL(Foo::ctr_call_counter, 0, "check 1"); ptr = uptr.get(); } CHECK_EQUAL(Foo::dectr_call_counter, 0, "check 1"); { auto sptr = Alloc::shared_allocate<Foo>(sizeof(Foo)); // The strategy of allocator. CHECK_EQUAL(ptr, static_cast<void*>(sptr.get()), "check 2"); } { auto uptr = Alloc::unique_construct<Foo>(); CHECK_EQUAL(Foo::ctr_call_counter, 1, "check 3"); CHECK_EQUAL(ptr, static_cast<void*>(uptr.get()), "check 3"); } CHECK_EQUAL(Foo::dectr_call_counter, 1, "check 3"); { auto sptr = Alloc::shared_construct<Foo>('6', '7'); CHECK_EQUAL(Foo::ctr_call_counter, 2, "check 4"); CHECK_TRUE(sptr->x_ == '6' && sptr->y_ == '7', "check 4"); CHECK_EQUAL(ptr, static_cast<void*>(sptr.get()), "check 4"); } CHECK_EQUAL(Foo::dectr_call_counter, 2, "check 4"); }
shape 管理形狀,每一個Tensor的形狀都是唯一的(採用 unique_ptr管理資料),見array.h 個 shape.h。
storage:管理資料,不同的Tensor的資料可能是同一份資料(share_ptr管理資料),見stroage.h。
array.h
#ifndef UTILS_ARRAY_H #define UTILS_ARRAY_H #include <initializer_list> #include <memory> #include <cstring> #include <iostream> // utils #include "base_config.h" #include "allocator.h" namespace st { // 應用是 tensor 的 shape, shape 是唯一的, 所以用 unique_ptr // 臨時:實際上並不是很完善,目前的樣子有點對不起這個 Dynamic 單詞 template<typename Dtype> class DynamicArray { public: explicit DynamicArray(index_t size) : size_(size), dptr_(Alloc::unique_allocate<Dtype>(size_ * sizeof(Dtype))) { } DynamicArray(std::initializer_list<Dtype> data) : DynamicArray(data.size()) { auto ptr = dptr_.get(); for(auto d: data) { *ptr = d; ++ptr; } } DynamicArray(const DynamicArray<Dtype>& other) : DynamicArray(other.size()) { std::memcpy(dptr_.get(), other.dptr_.get(), size_ * sizeof(Dtype)); } DynamicArray(const Dtype* data, index_t size) : DynamicArray(size) { std::memcpy(dptr_.get(), data, size_ * sizeof(Dtype)); } explicit DynamicArray(DynamicArray<Dtype>&& other) = default; ~DynamicArray() = default; Dtype& operator[](index_t idx) { return dptr_.get()[idx]; } Dtype operator[](index_t idx) const { return dptr_.get()[idx]; } index_t size() const { return size_; } // 注意 std::memset 的單位是位元組(char),若不是char型別,只用來置0,否則結果錯誤 // 臨時:std::memset 對非char型別只適合記憶體置0,如果想要更加通用,不妨考慮一下 std::fill 和 std::fill_n void memset(int value) const { std::memset(dptr_.get(), value, size_ * sizeof(Dtype)); } //原 void fill(int value) const (std::fill_n, size_, value); //改:見名知意 private: index_t size_; Alloc::TrivialUniquePtr<Dtype> dptr_; }; } // namespace st #endif
stroage.h
#ifndef TENSOR_STORAGE_H #define TENSOR_STORAGE_H #include <memory> #include "base_config.h" #include "allocator.h" namespace st { namespace nn { class InitializerBase; class OptimizerBase; } class Storage { public: explicit Storage(index_t size); Storage(const Storage& other, index_t offset); //觀察:offset 具體應用?bptr_資料依然是同一份,只是dptr_指向位置不同,這是關於pytorch的clip,切片等操作的設計方法 Storage(index_t size, data_t value); Storage(const data_t* data, index_t size); explicit Storage(const Storage& other) = default;//複製構造(因為資料都是指標形式,所以直接預設就行) explicit Storage(Storage&& other) = default;//移動構造(因為資料都是指標形式,所以直接預設就行) ~Storage() = default; Storage& operator=(const Storage& other) = delete; // inline function data_t operator[](index_t idx) const { return dptr_[idx]; } data_t& operator[](index_t idx) { return dptr_[idx]; } index_t offset(void) const { return dptr_ - bptr_->data_; }// index_t version(void) const { return bptr_->version_; }// void increment_version(void) const { ++bptr_->version_; }//??? // friend function friend class nn::InitializerBase; friend class nn::OptimizerBase; public: index_t size_; private: struct Vdata { index_t version_; //??? data_t data_[1]; //永遠指向資料頭 }; std::shared_ptr<Vdata> bptr_; // base pointer, share_ptr 的原因是不同的tensor可能指向的是storage資料 data_t* dptr_; // data pointer, 指向 Vdata 中的 data_, 他是移動的(遊標) }; } // namespace st #endif
storage.cpp
#include <iostream> #include <cstring> #include <algorithm> #include "storage.h" namespace st { Storage::Storage(index_t size) : bptr_(Alloc::shared_allocate<Vdata>(size * sizeof(data_t) + sizeof(index_t))), dptr_(bptr_->data_) { bptr_->version_ = 0; this->size_ = size; } Storage::Storage(const Storage& other, index_t offset) : bptr_(other.bptr_), dptr_(other.dptr_ + offset) { this->size_ = other.size_; } Storage::Storage(index_t size, data_t value) : Storage(size) { //std::memset(dptr_, value, size * sizeof(data_t)); // 臨時 std::fill_n(dptr_, size, value); } Storage::Storage(const data_t* data, index_t size) : Storage(size) { std::memcpy(dptr_, data, size * sizeof(data_t)); } } // namespace st
shape.h
#ifndef TENSOR_SHAPE_H #define TENSOR_SHAPE_H #include <initializer_list> #include <ostream> #include "base_config.h" #include "allocator.h" #include "array.h" namespace st { class Shape { public: // constructor Shape(std::initializer_list<index_t> dims); Shape(const Shape& other, index_t skip); Shape(index_t* dims, index_t dim); Shape(IndexArray&& shape); Shape(const Shape& other) = default; Shape(Shape&& other) = default; ~Shape() = default; // method index_t dsize() const; index_t subsize(index_t start_dim, index_t end_dim) const; index_t subsize(index_t start_dim) const; bool operator==(const Shape& other) const; // inline function index_t ndim(void) const { return dims_.size(); } index_t operator[](index_t idx) const { return dims_[idx]; } index_t& operator[](index_t idx) { return dims_[idx]; } operator const IndexArray() const { return dims_; } // friend function friend std::ostream& operator<<(std::ostream& out, const Shape& s); private: IndexArray dims_; // IndexArray 就是(DynamicArray) }; } // namespace st #endif
shape.cpp
#include "shape.h" namespace st { Shape::Shape(std::initializer_list<index_t> dims) : dims_(dims) {} Shape::Shape(const Shape& other, index_t skip) : dims_(other.ndim() - 1) { int i = 0; for (; i < skip; ++i) dims_[i] = other.dims_[i]; for (; i < dims_.size(); ++i) dims_[i] = other.dims_[i + 1]; } Shape::Shape(index_t* dims, index_t dim_) : dims_(dims, dim_) {} Shape::Shape(IndexArray&& shape) : dims_(std::move(shape)) {} index_t Shape::dsize() const { int res = 1; for (int i = 0; i < dims_.size(); ++i) res *= dims_[i]; return res; } index_t Shape::subsize(index_t start_dim, index_t end_dim) const { int res = 1; for (; start_dim < end_dim; ++start_dim) res *= dims_[start_dim]; return res; } index_t Shape::subsize(index_t start_dim) const { return subsize(start_dim, dims_.size()); } bool Shape::operator==(const Shape& other) const { if (this->ndim() != other.ndim()) return false; index_t i = 0; for (; i < dims_.size() && dims_[i] == other.dims_[i]; ++i) ; return i == dims_.size(); } std::ostream& operator<<(std::ostream& out, const Shape& s) { out << '(' << s[0]; for (int i = 1; i < s.ndim(); ++i) out << ", " << s[i]; out << ")"; return out; } } // namespace st
知識準備:繼承、指標類、奇異遞迴模板(靜態多型)、表示式模板、Impl設計模式(宣告實現分離)、友元類、模板特化。
tensor的設計採用的 impl 方法(宣告和實現分離), 採用了奇異遞迴模板(靜態多型),Tensor本身管理Tensor的張量運算,Exp則管理參照計數、梯度計數(反向求導,梯度更新時需要用到)的運算。
一共5個類:Tensor,TensorImpl,Exp,ExpImpl,ExpImplPtr,他們之間的關係由下圖體現。
先上圖:
程式碼:
// 程式碼比較多,就不放在這了,參看原始碼結合註釋理解
Tensor 資料記憶體分佈管理
Tensor的資料只有獨一份,那麼Tensor的各種操作 transpose,purmute,slice,等等,難道都要生出一個新的 tensor 和對應新的資料嗎?當然不可能,能用一份資料的絕不用兩份!tensor 資料的描述主要有 size(總數資料量),offset(此 tensor 相對於原始base資料的一個偏移量) ndim(幾個維度),shape(每個維度對映的個數),stride(每個維度中資料的索引步長),stride 和 shape是 一 一 對應的,通過這個stride的索引公式,我們就可以用一份資料幻化出不同的tensor表象了。解析如下圖
permute(軸換位置):shape 和 stride 調換序列一致即可。
transpose(指定兩個軸換位置,轉置):同上,與permute一致。
slice(切片):在原始資料上增加了一個偏移量。Tensor中的資料部分Storage中有一個bptr_(管理原始資料)和dptr_(管理當前tensor的資料指向)。
unsqueese(升維):指定dim加一個維度,且shape值為1,stride值則根據shape的subsize(dim)算出即可。
squeese(降維):dim為1的將自動消失並降維,shape 和 stride 對應位子都會去掉。
view(變形):目前是隻支援連續資料分佈且資料的size總和不變的情況,比如permute、transpose就會破壞這種連續。slice就會破壞資料size不一致。
到此這篇關於C++簡易版Tensor實現方法詳解的文章就介紹到這了,更多相關C++簡易版Tensor內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45