ฟาร์มเพื่อแยก

39.90 €ราคารวม ภาษีมูลค่าเพิ่มไม่รวม การส่งสินค้า

    จัดส่งฟรีไปยังประเทศเยอรมนีและสหรัฐอเมริกา

จัดส่งฟรีทั่วโลกจาก 60 EUR / USD มูลค่าการสั่งซื้อ

สำหรับคำสั่งซื้อต่ำกว่า 60 EUR / USD มีค่าจัดส่งต่อไปนี้:

  • เยอรมนีและสหรัฐอเมริกา: € 0, -
  • สหภาพยุโรป: € 10, -
  • ROW (อื่น ๆ ทั้งหมด): € 40, -

ค่าใช้จ่ายในการจัดส่งสินค้าจะถูกประเมินในระหว่างการชำระเงินตามมูลค่าของสินค้าที่ซื้อ

ค่าจัดส่งไม่ได้คำนึงถึงภาษีนำเข้า / ค่าธรรมเนียมศุลกากรใด ๆ ค่าธรรมเนียมเหล่านี้ไม่ได้อยู่ภายใต้การควบคุมของเราและใช้ตามข้อบังคับของประเทศที่คุณเลือกในการจัดส่ง โปรดอ้างอิงเจ้าหน้าที่ศุลกากรท้องถิ่นของคุณสำหรับข้อมูลเพิ่มเติม

การชำระเงิน
สำหรับการจัดส่งไปยังที่อยู่ภายในประเทศเยอรมนีสามารถชำระเงินได้โดยการโอนเงินผ่านธนาคารบัตรเครดิต PayPal หรือผ่าน Amazon Pay
สำหรับการจัดส่งนอกประเทศเยอรมนีสามารถชำระเงินด้วยบัตรเครดิต PayPal หรือผ่าน Amazon Pay

Gestalten ใช้ระบบการชำระเงินที่ปลอดภัยเพื่อปกป้องข้อมูลของคุณ ข้อมูลเพิ่มเติมเกี่ยวกับกระบวนการรักษาความปลอดภัยของเรามีอยู่ที่นี่

เมื่อคำสั่งซื้อของคุณได้รับการดำเนินการและมีการยืนยันคำสั่งซื้อคุณจะสามารถติดตามการจัดส่งโดยใช้ลิงก์ในการยืนยันคำสั่งซื้อ คุณจะสามารถติดตามคำสั่งซื้อในบัญชีลูกค้าของคุณ

โดยปกติคำสั่งซื้อจะได้รับภายใน 2-3 วันทำการสำหรับการสั่งซื้อภายในเยอรมนี 2-6 วันทำการสำหรับการสั่งซื้อภายในสหภาพยุโรปสวิตเซอร์แลนด์และนอร์เวย์ คำสั่งซื้อภายในสหรัฐอเมริกาจะถูกจัดส่งภายใน 3-7 วันทำการหลังจากได้รับการยืนยันการสั่งซื้อของคุณ การส่งมอบไปยังดินแดนอื่น ๆ ทั้งหมดจะใช้เวลา 10-14 วันทำการ

โปรดทราบว่าเราไม่ได้จัดส่งในวันหยุดสุดสัปดาห์และวันหยุดนักขัตฤกษ์ การส่งมอบจะไม่ทำในวันอาทิตย์และวันหยุดนักขัตฤกษ์อื่น ๆ เราจะพยายามแจ้งให้คุณทราบถึงความล่าช้าที่ไม่คาดคิด

มีการคืนเงินเต็มจำนวนจนถึง 14 วันหลังจากยืนยันการสั่งซื้อ คุณต้องแบกรับต้นทุนโดยตรงสำหรับการส่งคืนผลิตภัณฑ์ ข้อมูลเพิ่มเติมเกี่ยวกับนโยบายการคืนสินค้าของเรามีให้ที่นี่

ภาษาอังกฤษอาหารและเครื่องดื่มอย่างยั่งยืน

    จัดส่งฟรีไปยังประเทศเยอรมนีและสหรัฐอเมริกา

จัดส่งฟรีทั่วโลกจาก 60 EUR / USD มูลค่าการสั่งซื้อ

สำหรับคำสั่งซื้อต่ำกว่า 60 EUR / USD มีค่าจัดส่งต่อไปนี้:

  • เยอรมนีและสหรัฐอเมริกา: € 0, -
  • สหภาพยุโรป: € 10, -
  • ROW (อื่น ๆ ทั้งหมด): € 40, -

ค่าใช้จ่ายในการจัดส่งสินค้าจะถูกประเมินในระหว่างการชำระเงินตามมูลค่าของสินค้าที่ซื้อ

ค่าจัดส่งไม่ได้คำนึงถึงภาษีนำเข้า / ค่าธรรมเนียมศุลกากรใด ๆ ค่าธรรมเนียมเหล่านี้ไม่ได้อยู่ภายใต้การควบคุมของเราและใช้ตามข้อบังคับของประเทศที่คุณเลือกในการจัดส่ง โปรดอ้างอิงเจ้าหน้าที่ศุลกากรท้องถิ่นของคุณสำหรับข้อมูลเพิ่มเติม

การชำระเงิน
สำหรับการจัดส่งไปยังที่อยู่ภายในประเทศเยอรมนีสามารถชำระเงินได้โดยการโอนเงินผ่านธนาคารบัตรเครดิต PayPal หรือผ่าน Amazon Pay
สำหรับการจัดส่งนอกประเทศเยอรมนีสามารถชำระเงินด้วยบัตรเครดิต PayPal หรือผ่าน Amazon Pay

Gestalten ใช้ระบบการชำระเงินที่ปลอดภัยเพื่อปกป้องข้อมูลของคุณ ข้อมูลเพิ่มเติมเกี่ยวกับกระบวนการรักษาความปลอดภัยของเรามีอยู่ที่นี่

เมื่อคำสั่งซื้อของคุณได้รับการดำเนินการและมีการยืนยันคำสั่งซื้อคุณจะสามารถติดตามการจัดส่งโดยใช้ลิงก์ในการยืนยันคำสั่งซื้อ คุณจะสามารถติดตามคำสั่งซื้อในบัญชีลูกค้าของคุณ

โดยปกติคำสั่งซื้อจะได้รับภายใน 2-3 วันทำการสำหรับการสั่งซื้อภายในเยอรมนี 2-6 วันทำการสำหรับการสั่งซื้อภายในสหภาพยุโรปสวิตเซอร์แลนด์และนอร์เวย์ คำสั่งซื้อภายในสหรัฐอเมริกาจะถูกจัดส่งภายใน 3-7 วันทำการหลังจากได้รับการยืนยันการสั่งซื้อของคุณ การส่งมอบไปยังดินแดนอื่น ๆ ทั้งหมดจะใช้เวลา 10-14 วันทำการ

โปรดทราบว่าเราไม่ได้จัดส่งในวันหยุดสุดสัปดาห์และวันหยุดนักขัตฤกษ์ การส่งมอบจะไม่ทำในวันอาทิตย์และวันหยุดนักขัตฤกษ์อื่น ๆ เราจะพยายามแจ้งให้คุณทราบถึงความล่าช้าที่ไม่คาดคิด

มีการคืนเงินเต็มจำนวนจนถึง 14 วันหลังจากยืนยันการสั่งซื้อ คุณต้องแบกรับต้นทุนโดยตรงสำหรับการส่งคืนผลิตภัณฑ์ ข้อมูลเพิ่มเติมเกี่ยวกับนโยบายการคืนสินค้าของเรามีให้ที่นี่

เส้นทางการกิน Huelva (ตอนที่ 2): จากฟาร์มถึงทางแยก

การประมวลผลภาษาธรรมชาติที่ล้ำสมัยสำหรับ TensorFlow 2.0 และ PyTorch

🤗 Transformers (เดิมชื่อ pytorch-transformers และ pytorch-pretrained-bert) ให้บริการสถาปัตยกรรมทั่วไปที่ล้ำสมัย (BERT, GPT-2, RoBERTa, XLM, DistilBert, XLNet, CTRL) (NLU) และ Natural Language Generation (NLG) ที่มีโมเดลมากกว่า 32+ แบบใน 100+ ภาษาและการทำงานร่วมกันอย่างลึกซึ้งระหว่าง TensorFlow 2.0 และ PyTorch

  • ใช้งานง่ายเหมือน pytorch-transformers
  • มีพลังและรัดกุมเหมือน Keras
  • ประสิทธิภาพสูงสำหรับงาน NLU และ NLG
  • สิ่งกีดขวางไม่ให้เข้ามาสำหรับนักการศึกษาและผู้ปฏิบัติงาน

NLP ที่ทันสมัยสำหรับทุกคน

  • นักวิจัยการเรียนรู้ลึก
  • ผู้ฝึกปฏิบัติจริง
  • อาจารย์และนักการศึกษา AI / ML / NLP

ลดต้นทุนการคำนวณรอยเท้าคาร์บอนที่เล็กลง

  • นักวิจัยสามารถแบ่งปันแบบจำลองที่ได้รับการฝึกอบรมแทนการอบรมขึ้นใหม่ได้เสมอ
  • ผู้ประกอบการสามารถลดเวลาในการคำนวณและต้นทุนการผลิต
  • 10 สถาปัตยกรรมที่มีแบบจำลองมากกว่า 30 แบบบางแบบในกว่า 100 ภาษา

เลือกเฟรมเวิร์กที่เหมาะสมสำหรับทุกส่วนของอายุการใช้งานของโมเดล

  • ฝึกโมเดลที่ทันสมัยในรหัส 3 บรรทัด
  • การทำงานร่วมกันอย่างล้ำลึกระหว่างรุ่น TensorFlow 2.0 และ PyTorch
  • ย้ายโมเดลเดียวระหว่าง TF2.0 / PyTorch frameworks ตามต้องการ
  • เลือกกรอบงานที่เหมาะสมสำหรับการฝึกอบรมการประเมินผลการผลิต
มาตราลักษณะ
การติดตั้งวิธีติดตั้งแพ็คเกจ
สถาปัตยกรรมแบบจำลองสถาปัตยกรรม (ที่มีตุ้มน้ำหนัก)
การสาธิตออนไลน์การทดลองกับความสามารถในการสร้างข้อความของ repo นี้
ทัวร์ด่วน: การใช้งานโทเค็นและการใช้โมเดล: Bert และ GPT-2
ทัวร์ด่วน: TF 2.0 และ PyTorchฝึกรุ่น TF 2.0 ด้วยรหัส 10 บรรทัดโหลดใน PyTorch
ทัวร์ด่วน: สคริปต์ปรับ / ใช้งานอย่างละเอียดการใช้สคริปต์ที่ให้มา: GLUE, SQuAD และการสร้างข้อความ
การโอนย้ายจาก pytorch-transformers ไปยัง transformersโอนย้ายรหัสของคุณจาก pytorch-transformers ไปยัง transformers
การโยกย้ายจาก pytorch-pretrained-bert ไปยัง pytorch-transformersการโยกย้ายรหัสของคุณจาก pytorch-pretrained-bert ไปยังหม้อแปลง
เอกสาร (v2.1.1) (v2.0.0) (v1.2.0) (v1.1.0) (v1.0.0)เอกสาร API แบบเต็มและอีกมากมาย

repo นี้ทดสอบบน Python 2.7 และ 3.5+ (ตัวอย่างมีการทดสอบเฉพาะกับ python 3.5+), PyTorch 1.0.0+ และ TensorFlow 2.0.0-rc1

ก่อนอื่นคุณต้องติดตั้ง TensorFlow 2.0 และ PyTorch อย่างใดอย่างหนึ่ง โปรดดูหน้าการติดตั้ง TensorFlow และ / หรือหน้าการติดตั้ง PyTorch เกี่ยวกับคำสั่งการติดตั้งเฉพาะสำหรับแพลตฟอร์มของคุณ

เมื่อติดตั้ง TensorFlow 2.0 และ / หรือ PyTorch แล้ว🤗 Transformers สามารถติดตั้งได้โดยใช้ pip ดังนี้:

ที่นี่คุณต้องติดตั้งหนึ่งในหรือทั้งสองอย่างคือ TensorFlow 2.0 และ PyTorch โปรดดูหน้าการติดตั้ง TensorFlow และ / หรือหน้าการติดตั้ง PyTorch เกี่ยวกับคำสั่งการติดตั้งเฉพาะสำหรับแพลตฟอร์มของคุณ

เมื่อ TensorFlow 2.0 และ / หรือ PyTorch ได้รับการติดตั้งแล้วคุณสามารถติดตั้งจากแหล่งที่มาได้โดยทำการโคลนที่เก็บและเรียกใช้:

ชุดการทดสอบจะรวมอยู่ในไลบรารีและสคริปต์ตัวอย่าง การทดสอบไลบรารี่สามารถพบได้ในโฟลเดอร์การทดสอบและการทดสอบตัวอย่างในโฟลเดอร์ตัวอย่าง

การทดสอบเหล่านี้สามารถรันได้โดยใช้ pytest (ติดตั้ง pytest หากจำเป็นต้องใช้กับ pytest ติดตั้ง pip)

ขึ้นอยู่กับกรอบการติดตั้ง (TensorFlow 2.0 และ / หรือ PyTorch) การทดสอบที่ไม่เกี่ยวข้องจะถูกข้ามไป ตรวจสอบให้แน่ใจว่าได้ติดตั้งเฟรมเวิร์กทั้งสองหากคุณต้องการดำเนินการทดสอบทั้งหมด

คุณสามารถรันการทดสอบจากรูทของที่เก็บโคลนด้วยคำสั่ง:

คุณต้องการรันโมเดล Transformer บนอุปกรณ์มือถือหรือไม่?

คุณควรตรวจสอบ repo swift-coreml-transformers ของเรา

มันมีชุดเครื่องมือในการแปลงรุ่นหม้อแปลง PyTorch หรือ TensorFlow 2.0 (ปัจจุบันประกอบด้วย GPT-2, DistilGPT-2, BERT และ DistilBERT) เป็นรุ่น CoreML ที่ทำงานบนอุปกรณ์ iOS

ในบางจุดในอนาคตคุณจะสามารถย้ายจากโมเดลฝึกอบรมหรือปรับจูนไปเป็นผลิตภัณฑ์ใน CoreML หรือสร้างต้นแบบโมเดลหรือแอพใน CoreML จากนั้นทำการวิจัยพารามิเตอร์หรือสถาปัตยกรรมของ TensorFlow 2.0 และ / หรือ PyTorch ตื่นเต้นสุด ๆ !

🤗ปัจจุบัน Transformers มี 10 สถาปัตยกรรม NLU / NLG:

  1. BERT (จาก Google) เปิดตัวพร้อมกระดาษ BERT: การฝึกอบรมล่วงหน้าของ Deep Twoirectional Transformers เพื่อความเข้าใจภาษาโดย Jacob Devlin, Ming-Wei Chang, Kenton Lee และ Kristina Toutanova
  2. GPT (จาก OpenAI) เผยแพร่ด้วยเอกสารการพัฒนาความเข้าใจภาษาโดยการฝึกอบรมก่อนกำหนดโดย Alec Radford, Karthik Narasimhan, Tim Salimans และ Ilya Sutskever
  3. GPT-2 (จาก OpenAI) ที่เปิดตัวพร้อมกับแบบจำลองภาษาที่ใช้กระดาษเป็นผู้เรียน Multitask Unsupervised โดย Alec Radford *, Jeffrey Wu *, Rewon Child, David Luan, Dario Amodei ** และ Ilya Sutskever **
  4. หม้อแปลง-XL (จาก Google / CMU) เปิดตัวพร้อมกระดาษ Transformer-XL: โมเดลภาษาที่น่าสนใจนอกเหนือจากบริบทความยาวคงที่โดย Zihang Dai *, Zhilin Yang *, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov
  5. XLNet (จาก Google / CMU) เปิดตัวด้วยกระดาษ XLNet: Pretraining ทั่วไปอัตโนมัติเพื่อความเข้าใจภาษาโดย Zhilin Yang *, Zihang Dai *, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le
  6. XLM (จาก Facebook) เปิดตัวพร้อมกับกระดาษรูปแบบภาษา Cross-lingual Pretraining โดย Guillaume Lample และ Alexis Conneau
  7. Roberta (จาก Facebook) เผยแพร่พร้อมวิธีการเตรียมการล่วงหน้า BERT ที่เพิ่มประสิทธิภาพอย่างแข็งแรงโดย Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov
  8. DistilBERT (จาก HuggingFace) วางจำหน่ายพร้อมกระดาษ DistilBERT ซึ่งเป็นรุ่นกลั่นของ BERT: เล็กกว่าเร็วขึ้นถูกกว่าและเบากว่าโดย Victor Sanh, Lysandre Debut และ Thomas Wolf มีการใช้วิธีเดียวกันนี้ในการบีบอัด GPT2 ใน DistilGPT2
  9. CTRL (จาก Salesforce) เผยแพร่ด้วยกระดาษ CTRL: โมเดลภาษาแบบมีเงื่อนไขสำหรับการสร้างแบบควบคุมได้โดย Nitish Shirish Keskar *, Bryan McCann *, Lav R. Varshney, Caiming Xiong และ Richard Socher
  10. ต้องการมีส่วนร่วมในรูปแบบใหม่หรือไม่? เราได้เพิ่ม คู่มือและแม่แบบโดยละเอียด เพื่อแนะนำคุณในกระบวนการเพิ่มโมเดลใหม่ คุณสามารถค้นหาได้ในโฟลเดอร์แม่แบบของพื้นที่เก็บข้อมูล ให้แน่ใจว่าได้ตรวจสอบแนวทางการมีส่วนร่วมและติดต่อผู้ดูแลหรือเปิดปัญหาเพื่อรวบรวมความคิดเห็นก่อนที่จะเริ่มการประชาสัมพันธ์ของคุณ

การใช้งานเหล่านี้ได้รับการทดสอบกับชุดข้อมูลหลายชุด (ดูตัวอย่างสคริปต์) และควรตรงกับการแสดงของการใช้งานดั้งเดิม (เช่น

93 F1 สำหรับ SQuAD สำหรับ BERT Whole-Word-Masking

88 F1 บน RocStories สำหรับ OpenAI GPT

18.3 ความสับสนใน WikiText 103 สำหรับ Transformer-XL

0.916 Peason R สัมประสิทธิ์บน STS-B สำหรับ XLNet) คุณสามารถหารายละเอียดเพิ่มเติมเกี่ยวกับการแสดงได้ในส่วนตัวอย่างของเอกสาร

เขียนด้วย Transformerสร้างขึ้นโดยทีมงาน Hugging Face ที่ transformer.huggingface.co เป็นตัวอย่างอย่างเป็นทางการของความสามารถในการสร้างข้อความของ repo คุณสามารถใช้เพื่อทดสอบความสำเร็จที่สร้างโดย GPT2Model, TransfoXLModel และ XLNetModel

“ 🦄เขียนด้วยหม้อแปลงไฟฟ้าคือการเขียนเครื่องคิดเลขเพื่อแคลคูลัส”

มาดูภาพรวมอย่างรวดเร็วของสถาปัตยกรรมแบบจำลองใน🤗 Transformers ตัวอย่างรายละเอียดสำหรับสถาปัตยกรรมแต่ละรุ่น (Bert, GPT, GPT-2, Transformer-XL, XLNet และ XLM) สามารถพบได้ในเอกสารฉบับเต็ม

ทัวร์ด่วน TF 2.0 การฝึกอบรมและการทำงานร่วมกันของ PyTorch

ลองทำตัวอย่างย่อเกี่ยวกับวิธีการฝึกอบรมรุ่น TensorFlow 2.0 ในโค้ด 12 บรรทัดด้วย🤗 Transformers จากนั้นโหลดใน PyTorch เพื่อตรวจสอบ / ทดสอบอย่างรวดเร็ว

การเดินทางอย่างรวดเร็วของสคริปต์การปรับแต่ง / การใช้งาน

ไลบรารีประกอบด้วยสคริปต์ตัวอย่างจำนวนมากที่มีการแสดง SOTA สำหรับงาน NLU และ NLG:

  • run_glue.py: ตัวอย่างการปรับ Bert, XLNet และ XLM อย่างละเอียดสำหรับงาน GLUE เก้าแบบ (การจำแนกระดับลำดับ)
  • run_squad.py: ตัวอย่างการปรับแต่ง Bert, XLNet และ XLM สำหรับคำถามที่ตอบชุดข้อมูล SQuAD 2.0 (การจำแนกระดับโทเค็น)
  • run_generation.py: ตัวอย่างที่ใช้ GPT, GPT-2, CTRL, Transformer-XL และ XLNet สำหรับการสร้างภาษาที่มีเงื่อนไข
  • ตัวอย่างเฉพาะรุ่นอื่น ๆ (ดูเอกสารประกอบ)

ต่อไปนี้เป็นตัวอย่างการใช้งานที่รวดเร็วสำหรับสคริปต์เหล่านี้:

run_glue.py: ปรับจูนงาน GLUE อย่างละเอียดเพื่อการจำแนกลำดับ

เกณฑ์มาตรฐานการประเมินความเข้าใจภาษาทั่วไป (GLUE) เป็นชุดของงานทำความเข้าใจภาษาทั้งประโยคหรือประโยคคู่เก้าประโยคสำหรับการประเมินและวิเคราะห์ระบบทำความเข้าใจภาษาธรรมชาติ

ก่อนที่จะเรียกใช้งานงาน GLUE เหล่านี้คุณควรดาวน์โหลดข้อมูล GLUE โดยเรียกใช้สคริปต์นี้และแยกไฟล์ไปยังบางไดเรกทอรี $ GLUE_DIR

คุณควรติดตั้งแพ็คเกจเพิ่มเติมตามตัวอย่าง:

โดยที่ชื่อภารกิจสามารถเป็นหนึ่งใน CoLA, SST-2, MRPC, STS-B, QQP, MNLI, QNLI, RTE, WNLI

ผลลัพธ์ชุด dev จะแสดงภายในไฟล์ข้อความ 'eval_results.txt' ใน output_dir ที่ระบุ ในกรณีของ MNLI เนื่องจากมีสองชุด dev แยกกันจับคู่และไม่ตรงกันจะมีโฟลเดอร์เอาต์พุตแยกต่างหากที่เรียกว่า '/ tmp / MNLI-MM /' นอกเหนือจาก '/ tmp / MNLI /'

การปรับโมเดล XLNet แบบละเอียดบนงานการถดถอย STS-B

โค้ดตัวอย่างนี้ปรับ XLNet บนคลังข้อมูล STS-B โดยใช้การฝึกอบรมแบบขนานบนเซิร์ฟเวอร์ที่มี GPU VV 4 ตัว การฝึกอบรมแบบขนานเป็นวิธีที่ง่ายในการใช้ GPU หลายตัว (แต่ช้ากว่าและมีความยืดหยุ่นน้อยกว่าการฝึกอบรมแบบกระจายดูด้านล่าง)

บนเครื่องนี้เรามีขนาดแบทช์เป็น 32 โปรดเพิ่ม gradient_accumulation_steps เพื่อให้ได้ขนาดแบทช์เดียวกันหากคุณมีเครื่องขนาดเล็ก พารามิเตอร์ไฮเปอร์เหล่านี้ควรส่งผลให้สัมประสิทธิ์สหสัมพันธ์เพียร์สันเท่ากับ +0.917 ในชุดการพัฒนา

การปรับโมเดล Bert อย่างละเอียดบนงานการจำแนก MRPC

โค้ดตัวอย่างนี้ปรับรูปแบบ Bert Whole Word Masking ในคลังข้อมูล Microsoft Research Paraphrase Corpus (MRPC) โดยใช้การฝึกอบรมแบบกระจายบน 8 V100 GPUs เพื่อเข้าถึง F1> 92

การฝึกอบรมด้วยพารามิเตอร์ไฮเปอร์เหล่านี้ทำให้เราได้ผลลัพธ์ดังต่อไปนี้:

run_squad.py: ปรับแต่ง SQuAD อย่างละเอียดเพื่อตอบคำถาม

โค้ดตัวอย่างนี้ปรับแต่ง BERT บนชุดข้อมูล SQuAD โดยใช้การฝึกอบรมแบบกระจายบน 8 V100 GPUs และ Bert Whole Word Masking แบบจำลองที่ยังไม่ได้อ่านเพื่อเข้าถึง F1> 93 บน SQuAD:

การฝึกอบรมด้วยพารามิเตอร์ไฮเปอร์เหล่านี้ทำให้เราได้ผลลัพธ์ดังต่อไปนี้:

นี่คือรูปแบบที่จัดไว้ให้เป็นทีมขนาดใหญ่ที่ไม่มีผู้ใดสวมหน้ากาก

run_generation.py: การสร้างข้อความด้วย GPT, GPT-2, CTRL, Transformer-XL และ XLNet

สคริปต์การสร้างแบบมีเงื่อนไขจะรวมอยู่ในการสร้างข้อความจากพรอมต์ สคริปต์การสร้างประกอบด้วยเทคนิคที่เสนอโดย Aman Rusia เพื่อรับการสร้างคุณภาพสูงด้วยรุ่นหน่วยความจำเช่น Transformer-XL และ XLNet (รวมข้อความที่กำหนดไว้ล่วงหน้าเพื่อให้อินพุตสั้นอีกต่อไป)

นี่คือวิธีเรียกใช้สคริปต์ด้วย OpenAI GPT-2 รุ่นเล็ก:

และจากโมเดล CTRL ของ Salesforce:

การโอนย้ายจาก pytorch-transformers ไปยัง transformers

นี่คือบทสรุปอย่างย่อของสิ่งที่คุณควรระวังเมื่อย้ายจาก pytorch-transformers ไปยัง transformers

ลำดับคำสำคัญของบางคำสั่งของแบบจำลอง (input_mask, token_type_ids.) มีการเปลี่ยนแปลง

เพื่อให้สามารถใช้ Torchscript (ดู # 1010, # 1204 และ # 1195) ลำดับเฉพาะของบางรุ่น ป้อนคำหลัก (ความสนใจ _mask, token_type_ids.) มีการเปลี่ยนแปลง

หากคุณเคยโทรรุ่นที่มีชื่อคำหลักเพื่อหาข้อโต้แย้งของคำหลักเช่น model (อินพุต _> สิ่งนี้ไม่ควรทำให้เกิดการเปลี่ยนแปลงใด ๆ

หากคุณเคยโทรหาโมเดลที่มีอินพุตแบบระบุตำแหน่งเพื่อหาข้อโต้แย้งของคำหลักเช่น model (inputs_ids, attention_mask, token_type_ids) คุณอาจต้องตรวจสอบลำดับอาร์กิวเมนต์ที่แน่นอนของอินพุตอีกครั้ง

การโยกย้ายจาก pytorch-pretrained-bert ไปยังหม้อแปลง

นี่คือบทสรุปอย่างย่อของสิ่งที่คุณควรดูแลเมื่อย้ายจาก pytorch-pretrained-bert ไปยังหม้อแปลง

รุ่นส่งออกสิ่งอันดับเสมอ

การเปลี่ยนแปลงที่สำคัญเมื่อทำการโยกย้ายจาก pytorch-pretrained-bert ไปที่หม้อแปลงคือวิธีการส่งต่อของทุกรุ่นจะส่งเอาต์พุต tuple ที่มีองค์ประกอบต่าง ๆ ขึ้นอยู่กับรุ่นและพารามิเตอร์การกำหนดค่าเสมอ

เนื้อหาที่แน่นอนของสิ่งอันดับสำหรับแต่ละรุ่นมีรายละเอียดในเอกสารของโมเดลและเอกสารประกอบ

ในทุกกรณีคุณจะไม่เป็นไรโดยเอาองค์ประกอบแรกของเอาต์พุตเป็นเอาต์พุตที่คุณเคยใช้ใน pytorch-pretrained-bert

นี่คือ pytorch-pretrained-bert เพื่อตัวอย่างการแปลงของหม้อแปลงสำหรับแบบจำลองการจำแนกประเภท BertForSequenceClassification:

ใช้สถานะซ่อนเร้น

โดยการเปิดใช้งานตัวเลือกการกำหนดค่า output_hidden_states มันเป็นไปได้ที่จะดึงสถานะสุดท้ายที่ซ่อนอยู่ของตัวเข้ารหัส ใน pytorch-transformers เช่นเดียวกับ transformers ค่าที่ส่งคืนได้เปลี่ยนไปเล็กน้อย: all_hidden_states ตอนนี้ยังรวมสถานะที่ซ่อนอยู่ของ embeddings เพิ่มเติมจากเลเยอร์การเข้ารหัส วิธีนี้ช่วยให้ผู้ใช้สามารถเข้าถึงสถานะสุดท้ายของงานแต่งงานได้อย่างง่ายดาย

การเปลี่ยนแปลงที่เปลี่ยนแปลงในวิธี from_pretrained ():

ตอนนี้โมเดลจะถูกตั้งค่าในโหมดการประเมินผลตามค่าเริ่มต้นเมื่อสร้างอินสแตนซ์ด้วยเมธอด from_pretrained () ในการฝึกอบรมพวกเขาอย่าลืมตั้งพวกเขากลับมาในโหมดการฝึกอบรม (model.train ()) เพื่อเปิดใช้งานโมดูลการออกกลางคัน

นอกจากนี้แม้ว่าจะไม่ได้มีการเปลี่ยนแปลง แต่อย่างใดวิธีการซีเรียลไลซ์เซชั่นเป็นมาตรฐานและคุณควรเปลี่ยนไปใช้เมธอดใหม่คือ save_pretrained (save_directory) หากคุณเคยใช้วิธีการซีเรียลไลซ์เซชันอื่นมาก่อน

นี่คือตัวอย่าง:

เครื่องมือเพิ่มประสิทธิภาพ: BertAdam และ OpenAIAdam เป็น AdamW ตารางเวลาเป็นตาราง PyTorch มาตรฐาน

เครื่องมือเพิ่มประสิทธิภาพสองรายการก่อนหน้านี้ ได้แก่ BertAdam และ OpenAIAdam ถูกแทนที่ด้วยเครื่องมือเพิ่มประสิทธิภาพ AdamW ตัวเดียวซึ่งมีความแตกต่างเล็กน้อย:

  • มันใช้การแก้ไขการสลายตัวของน้ำหนักเท่านั้น
  • ตอนนี้กำหนดการอยู่ภายนอก (ดูด้านล่าง)
  • ตอนนี้การไล่ระดับสีเป็นแบบภายนอกด้วย (ดูด้านล่าง)

เครื่องมือเพิ่มประสิทธิภาพใหม่ AdamW จับคู่ PyTorch Adam optimizer API และให้คุณใช้วิธี PyTorch หรือ apex มาตรฐานสำหรับกำหนดการและการตัด

ขณะนี้กำหนดการเป็นมาตรฐานตัวกำหนดอัตราการเรียนรู้ของ PyTorch และไม่ได้เป็นส่วนหนึ่งของเครื่องมือเพิ่มประสิทธิภาพอีกต่อไป

นี่คือตัวอย่างการแปลงจาก BertAdam ที่มีการอุ่นเชิงเส้นและกำหนดการผุไป AdamW และกำหนดการเดียวกัน:

ตอนนี้เรามีเอกสารที่คุณสามารถอ้างถึงห้องสมุด🤗 Transformers:

ฟาร์มเพื่อแยก - หมายถึงฟาร์มที่ผลิตอาหารในท้องถิ่นและส่งมอบอาหารให้กับผู้บริโภคในท้องถิ่น คำนี้เกี่ยวข้องกับความคิดริเริ่มการทำเกษตรอินทรีย์การเกษตรแบบยั่งยืนและการเกษตรที่สนับสนุนชุมชนนอกจากนี้ยังมีอาหารคาร์บอนต่ำ * อินทรีย์…… Wikipedia

ฟาร์มเพื่อแยก - adj. เกี่ยวข้องกับห่วงโซ่อาหารของมนุษย์ตั้งแต่การผลิตจนถึงการบริโภค นอกจากนี้: ฟาร์มถึงทางแยกจากฟาร์มไปยังทางแยก n ตัวอย่างการอ้างอิง: การตอบคำร้องเรียนของสหรัฐอเมริการัฐสภายุโรปได้ย้ายไปพักการชำระหนี้เป็นเวลาห้าปีในวันที่……คำใหม่

ฟาร์มเพื่อแยก - หรือเกี่ยวข้องกับห่วงโซ่อาหารของมนุษย์ตั้งแต่ขั้นตอนการผลิตจนถึงการบริโภค ... พจนานุกรมร่วมสมัยภาษาอังกฤษ

ส้อม - NOUN 1) อุปกรณ์ที่ใช้ง่ามสองอันหรือมากกว่าสำหรับใช้ในการยกหรือถืออาหาร 2) เครื่องมือฟาร์มหรือสวนง่ามที่ใช้สำหรับขุดหรือยก 3) แต่ละคู่ของการสนับสนุนที่ล้อจักรยานหรือรถจักรยานยนต์หมุน 4) จุดที่ ... พจนานุกรมศัพท์ภาษาอังกฤษ ...

ทางแยก (disambiguation) - ส้อมเป็นอุปกรณ์สำหรับรับประทานอาหารและทำอาหารนอกจากนี้ Fork ยังอาจหมายถึง: * Pitchfork ซึ่งเป็นฟาร์มที่มีการใช้เพื่อยกหญ้าแห้งและทำงานอื่น ๆ * ส้อมเสียง, อุปกรณ์สั่นที่ใช้ในการปรับเครื่องดนตรี * Fork (หมากรุก), สถานการณ์ใน…… Wikipedia

ส้อม — <> I. <> คำนาม 1 เครื่องมือสำหรับการรับประทานสลัดโทเค็น (AME) พลาสติก VERB + FORK หยิบ ... พจนานุกรมการจัดวาง

การจัดการฟาร์ม - การทำเกษตรเบื้องต้น (วิศวกรรมอุตสาหการ) และการตัดสินใจ (ธุรกิจการเกษตร) ที่เกี่ยวข้องกับการจัดระเบียบและการดำเนินงานฟาร์มเพื่อการผลิตและผลกำไรสูงสุด การจัดการฟาร์มใช้เศรษฐศาสตร์เกษตรเพื่อ……สากล

ส้อม - คำนาม 1》 อุปกรณ์ง่ามที่ใช้สำหรับยกหรือถืออาหาร farma เครื่องมือฟาร์มหรือสวนที่ใช้ง่ามสำหรับขุดหรือยก 2》 จุดที่บางสิ่งโดยเฉพาะถนนหรือ (N. Amer.) แม่น้ำ> div> พจนานุกรมศัพท์ศัพท์ภาษาอังกฤษใหม่

ฟาร์มไปตลาดถนน 3405 - กล่องข้อมูลประเภทรัฐ TX ทางหลวง = เส้นทางฟาร์ม = 3405 ความยาวไมล์ = 8.0 ความยาวอ้างอิง = TxDOT | FM | รอบ 3405 ความยาว = 1 เกิดขึ้น = 1954 dir1 = ทิศตะวันออก dir2 = ทิศตะวันตกจาก = ถึง = ประเภทก่อนหน้า = ไร่เส้นทางก่อนหน้า = 3404 = ฟาร์มเส้นทางถัดไป = 3406 | ฟาร์มสู่ Market Road 3405 หรือ FM …… Wikipedia

สวนถึงทางแยก - adj. อธิบายหรือเกี่ยวข้องกับอาหารที่ปลูกในสวนของบุคคล นอกจากนี้: สวนเพื่อแยก ตัวอย่างการอ้างอิง: อาจารย์ใหญ่ Mo Brown sa> คำศัพท์ใหม่

หน้าต่างฟาร์ม - n สวนไฮโดรโพนิกขนาดเล็กแนวตั้งติดตั้งที่หน้าต่างและใช้สำหรับปลูกพืชเช่นสมุนไพรและผัก นอกจากนี้: windowfarm หน้าต่างการทำฟาร์ม pp. เกษตรกรหน้าต่าง ตัวอย่างการอ้างอิง: ฉันวางการออกแบบเหล่านั้นบนอินเทอร์เน็ตและสร้างสังคม……คำศัพท์ใหม่

เจมส์ดีน

เจมส์เป็นซีอีโอและผู้ก่อตั้ง บริษัท ออแกนนิกฟู้ด จำกัด ในยุโรป ด้วยประสบการณ์ 15 ปีเขานำความเชี่ยวชาญและความรู้ของเขา

วิธีนี้จะทำให้เกิดข้อผิดพลาดเกี่ยวกับ iste natus sit voluptatem accusantium doloremque laudantium, toam rem

Bianca Jones

Bianca เป็นผู้จัดการทั่วไปของ Organic Food และกำลังจัดการแผนกลูกค้าองค์กร

มีมุมมองที่ไม่ดีสำหรับข้อผิดพลาดที่ไม่น่าเชื่อเกี่ยวกับข้อผิดพลาดที่เกิดขึ้นกับคนอื่น ๆ , สิ่งที่ไม่ถูกต้อง, สิ่งที่ไม่ถูกต้องคือสิ่งประดิษฐ์

Britney Swan

Britney เป็นผู้กำกับ Local Spot และเธอเป็นผู้ดูแล Local Spots และผู้จัดจำหน่ายทั่วประเทศ

วิธีนี้จะทำให้เกิดข้อผิดพลาดเกี่ยวกับ iste natus sit voluptatem accusantium doloremque laudantium, toam rem

จอห์นมิลตัน

John เป็นสมาชิกใหม่ล่าสุดของ O.F. แต่เป็นส่วนสำคัญของทีมแล้ว เขาเป็นหัวหน้าฝ่ายการตลาดในอาหารออร์แกนิก

วิธีนี้จะทำให้เกิดข้อผิดพลาดเกี่ยวกับ iste natus sit voluptatem accusantium doloremque laudantium, toam rem

Caroline Bongo - ผู้อำนวยการ / หัวหน้าที่ปรึกษา

Caroline มีประสบการณ์ยาวนานเกือบ 15 ปีซึ่งประกอบไปด้วยธุรกิจการเกษตรและการจัดการโครงการและได้รับการรับรองมาตรฐาน ISO 9000 / SA 8000 เธอถือ Bsc ในพืชสวนและกำลังรับปริญญาโทด้านการบริหารโครงการ

George Mwamuye - ผู้จัดการธุรกิจ / ผู้ตรวจสอบบัญชี

จอร์จเป็นผู้จัดการธุรกิจของฟาร์มมาตั้งแต่เริ่มก่อตั้งและยังได้รับการฝึกฝนให้เป็นหัวหน้าผู้ตรวจประเมิน ISO 9000 ปัจจุบันเขากำลังศึกษาระดับปริญญาตรีในมหาวิทยาลัย Jomo Kenyatta เศรษฐศาสตร์เกษตรและการพัฒนาชนบท

Ian Edewa - หัวหน้าผู้ตรวจประเมินผู้ฝึกอบรมและนักปฐพีวิทยา

เอียนมีประสบการณ์มากกว่า 10 ปีในสาขาพืชสวน เขาเป็นผู้ตรวจสอบบัญชีที่ได้รับการรับรองและเป็นผู้เชี่ยวชาญในการใช้เคมีเกษตรและพืชไร่ทั่วไป เขาสำเร็จการศึกษาระดับปวส. สาขาเกษตรทั่วไปและปัจจุบันกำลังรับปริญญาตรีด้านพืชสวน

Sam Mwangi - ผู้เชี่ยวชาญด้านความปลอดภัยและคุณภาพอาหาร

ประสบการณ์ของแซมยาวนานกว่า 13 ปีในอุตสาหกรรมอาหาร มีการฝึกอบรมพนักงานโรงเก็บสัมภาระหลายร้อยคนในเรื่องความปลอดภัยของอาหาร เขาเป็นหนึ่งในผู้เชี่ยวชาญของการจัดการหลังการเก็บเกี่ยว แซมสำเร็จการศึกษาระดับปริญญาโทสาขาบริหารธุรกิจและวิทยาศาสตร์การอาหารและเทคโนโลยี

Farm to Fork เป็นผู้ให้บริการอุตสาหกรรมการเกษตรชั้นนำในแอฟริกาและที่อื่น ๆ เป้าหมายหลักของเราคือชาวนาโดยเฉพาะเกษตรกรรายย่อย แม้ว่าขอบเขตของเราจะเกินกว่าฟาร์มไปจนถึงส่วนที่เหลือของห่วงโซ่อาหาร เราได้เข้าถึงการเพิ่มมูลค่าในระดับอื่น ๆ ซึ่งรวมถึง: การประมวลผลบรรจุภัณฑ์คลังสินค้าการขนส่งโรงแรมการส่งออกและการนำเข้า