25 #error "Never use <avx512vldqintrin.h> directly; include <immintrin.h> instead."
28 #ifndef __AVX512VLDQINTRIN_H
29 #define __AVX512VLDQINTRIN_H
32 #define __DEFAULT_FN_ATTRS __attribute__((__always_inline__, __nodebug__, __target__("avx512vl,avx512dq")))
35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) {
36 return (__m256i) ((__v4di) __A * (__v4di) __B);
40 _mm256_mask_mullo_epi64 (__m256i __W,
__mmask8 __U, __m256i __A, __m256i __B) {
41 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A,
48 _mm256_maskz_mullo_epi64 (
__mmask8 __U, __m256i __A, __m256i __B) {
49 return (__m256i) __builtin_ia32_pmullq256_mask ((__v4di) __A,
52 _mm256_setzero_si256 (),
57 _mm_mullo_epi64 (__m128i __A, __m128i __B) {
58 return (__m128i) ((__v2di) __A * (__v2di) __B);
62 _mm_mask_mullo_epi64 (__m128i __W,
__mmask8 __U, __m128i __A, __m128i __B) {
63 return (__m128i) __builtin_ia32_pmullq128_mask ((__v2di) __A,
70 _mm_maskz_mullo_epi64 (
__mmask8 __U, __m128i __A, __m128i __B) {
71 return (__m128i) __builtin_ia32_pmullq128_mask ((__v2di) __A,
79 _mm256_mask_andnot_pd (__m256d __W,
__mmask8 __U, __m256d __A, __m256d __B) {
80 return (__m256d) __builtin_ia32_andnpd256_mask ((__v4df) __A,
87 _mm256_maskz_andnot_pd (
__mmask8 __U, __m256d __A, __m256d __B) {
88 return (__m256d) __builtin_ia32_andnpd256_mask ((__v4df) __A,
96 _mm_mask_andnot_pd (__m128d __W,
__mmask8 __U, __m128d __A, __m128d __B) {
97 return (__m128d) __builtin_ia32_andnpd128_mask ((__v2df) __A,
104 _mm_maskz_andnot_pd (
__mmask8 __U, __m128d __A, __m128d __B) {
105 return (__m128d) __builtin_ia32_andnpd128_mask ((__v2df) __A,
113 _mm256_mask_andnot_ps (__m256 __W,
__mmask8 __U, __m256 __A, __m256 __B) {
114 return (__m256) __builtin_ia32_andnps256_mask ((__v8sf) __A,
121 _mm256_maskz_andnot_ps (
__mmask8 __U, __m256 __A, __m256 __B) {
122 return (__m256) __builtin_ia32_andnps256_mask ((__v8sf) __A,
125 _mm256_setzero_ps (),
130 _mm_mask_andnot_ps (__m128 __W,
__mmask8 __U, __m128 __A, __m128 __B) {
131 return (__m128) __builtin_ia32_andnps128_mask ((__v4sf) __A,
138 _mm_maskz_andnot_ps (
__mmask8 __U, __m128 __A, __m128 __B) {
139 return (__m128) __builtin_ia32_andnps128_mask ((__v4sf) __A,
147 _mm256_mask_and_pd (__m256d __W,
__mmask8 __U, __m256d __A, __m256d __B) {
148 return (__m256d) __builtin_ia32_andpd256_mask ((__v4df) __A,
155 _mm256_maskz_and_pd (
__mmask8 __U, __m256d __A, __m256d __B) {
156 return (__m256d) __builtin_ia32_andpd256_mask ((__v4df) __A,
159 _mm256_setzero_pd (),
164 _mm_mask_and_pd (__m128d __W,
__mmask8 __U, __m128d __A, __m128d __B) {
165 return (__m128d) __builtin_ia32_andpd128_mask ((__v2df) __A,
172 _mm_maskz_and_pd (
__mmask8 __U, __m128d __A, __m128d __B) {
173 return (__m128d) __builtin_ia32_andpd128_mask ((__v2df) __A,
181 _mm256_mask_and_ps (__m256 __W,
__mmask8 __U, __m256 __A, __m256 __B) {
182 return (__m256) __builtin_ia32_andps256_mask ((__v8sf) __A,
189 _mm256_maskz_and_ps (
__mmask8 __U, __m256 __A, __m256 __B) {
190 return (__m256) __builtin_ia32_andps256_mask ((__v8sf) __A,
193 _mm256_setzero_ps (),
198 _mm_mask_and_ps (__m128 __W,
__mmask8 __U, __m128 __A, __m128 __B) {
199 return (__m128) __builtin_ia32_andps128_mask ((__v4sf) __A,
206 _mm_maskz_and_ps (
__mmask8 __U, __m128 __A, __m128 __B) {
207 return (__m128) __builtin_ia32_andps128_mask ((__v4sf) __A,
215 _mm256_mask_xor_pd (__m256d __W,
__mmask8 __U, __m256d __A,
217 return (__m256d) __builtin_ia32_xorpd256_mask ((__v4df) __A,
224 _mm256_maskz_xor_pd (
__mmask8 __U, __m256d __A, __m256d __B) {
225 return (__m256d) __builtin_ia32_xorpd256_mask ((__v4df) __A,
228 _mm256_setzero_pd (),
233 _mm_mask_xor_pd (__m128d __W,
__mmask8 __U, __m128d __A, __m128d __B) {
234 return (__m128d) __builtin_ia32_xorpd128_mask ((__v2df) __A,
241 _mm_maskz_xor_pd (
__mmask8 __U, __m128d __A, __m128d __B) {
242 return (__m128d) __builtin_ia32_xorpd128_mask ((__v2df) __A,
250 _mm256_mask_xor_ps (__m256 __W,
__mmask8 __U, __m256 __A, __m256 __B) {
251 return (__m256) __builtin_ia32_xorps256_mask ((__v8sf) __A,
258 _mm256_maskz_xor_ps (
__mmask8 __U, __m256 __A, __m256 __B) {
259 return (__m256) __builtin_ia32_xorps256_mask ((__v8sf) __A,
262 _mm256_setzero_ps (),
267 _mm_mask_xor_ps (__m128 __W,
__mmask8 __U, __m128 __A, __m128 __B) {
268 return (__m128) __builtin_ia32_xorps128_mask ((__v4sf) __A,
275 _mm_maskz_xor_ps (
__mmask8 __U, __m128 __A, __m128 __B) {
276 return (__m128) __builtin_ia32_xorps128_mask ((__v4sf) __A,
284 _mm256_mask_or_pd (__m256d __W,
__mmask8 __U, __m256d __A, __m256d __B) {
285 return (__m256d) __builtin_ia32_orpd256_mask ((__v4df) __A,
292 _mm256_maskz_or_pd (
__mmask8 __U, __m256d __A, __m256d __B) {
293 return (__m256d) __builtin_ia32_orpd256_mask ((__v4df) __A,
296 _mm256_setzero_pd (),
301 _mm_mask_or_pd (__m128d __W,
__mmask8 __U, __m128d __A, __m128d __B) {
302 return (__m128d) __builtin_ia32_orpd128_mask ((__v2df) __A,
309 _mm_maskz_or_pd (
__mmask8 __U, __m128d __A, __m128d __B) {
310 return (__m128d) __builtin_ia32_orpd128_mask ((__v2df) __A,
318 _mm256_mask_or_ps (__m256 __W,
__mmask8 __U, __m256 __A, __m256 __B) {
319 return (__m256) __builtin_ia32_orps256_mask ((__v8sf) __A,
326 _mm256_maskz_or_ps (
__mmask8 __U, __m256 __A, __m256 __B) {
327 return (__m256) __builtin_ia32_orps256_mask ((__v8sf) __A,
330 _mm256_setzero_ps (),
335 _mm_mask_or_ps (__m128 __W,
__mmask8 __U, __m128 __A, __m128 __B) {
336 return (__m128) __builtin_ia32_orps128_mask ((__v4sf) __A,
343 _mm_maskz_or_ps (
__mmask8 __U, __m128 __A, __m128 __B) {
344 return (__m128) __builtin_ia32_orps128_mask ((__v4sf) __A,
352 _mm_cvtpd_epi64 (__m128d __A) {
353 return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
354 (__v2di) _mm_setzero_si128(),
359 _mm_mask_cvtpd_epi64 (__m128i __W,
__mmask8 __U, __m128d __A) {
360 return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
366 _mm_maskz_cvtpd_epi64 (
__mmask8 __U, __m128d __A) {
367 return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
368 (__v2di) _mm_setzero_si128(),
373 _mm256_cvtpd_epi64 (__m256d __A) {
374 return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
375 (__v4di) _mm256_setzero_si256(),
380 _mm256_mask_cvtpd_epi64 (__m256i __W,
__mmask8 __U, __m256d __A) {
381 return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
387 _mm256_maskz_cvtpd_epi64 (
__mmask8 __U, __m256d __A) {
388 return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
389 (__v4di) _mm256_setzero_si256(),
394 _mm_cvtpd_epu64 (__m128d __A) {
395 return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
396 (__v2di) _mm_setzero_si128(),
401 _mm_mask_cvtpd_epu64 (__m128i __W,
__mmask8 __U, __m128d __A) {
402 return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
408 _mm_maskz_cvtpd_epu64 (
__mmask8 __U, __m128d __A) {
409 return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
410 (__v2di) _mm_setzero_si128(),
415 _mm256_cvtpd_epu64 (__m256d __A) {
416 return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
417 (__v4di) _mm256_setzero_si256(),
422 _mm256_mask_cvtpd_epu64 (__m256i __W,
__mmask8 __U, __m256d __A) {
423 return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
429 _mm256_maskz_cvtpd_epu64 (
__mmask8 __U, __m256d __A) {
430 return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
431 (__v4di) _mm256_setzero_si256(),
436 _mm_cvtps_epi64 (__m128 __A) {
437 return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
438 (__v2di) _mm_setzero_si128(),
443 _mm_mask_cvtps_epi64 (__m128i __W,
__mmask8 __U, __m128 __A) {
444 return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
450 _mm_maskz_cvtps_epi64 (
__mmask8 __U, __m128 __A) {
451 return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
452 (__v2di) _mm_setzero_si128(),
457 _mm256_cvtps_epi64 (__m128 __A) {
458 return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
459 (__v4di) _mm256_setzero_si256(),
464 _mm256_mask_cvtps_epi64 (__m256i __W,
__mmask8 __U, __m128 __A) {
465 return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
471 _mm256_maskz_cvtps_epi64 (
__mmask8 __U, __m128 __A) {
472 return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
473 (__v4di) _mm256_setzero_si256(),
478 _mm_cvtps_epu64 (__m128 __A) {
479 return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
480 (__v2di) _mm_setzero_si128(),
485 _mm_mask_cvtps_epu64 (__m128i __W,
__mmask8 __U, __m128 __A) {
486 return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
492 _mm_maskz_cvtps_epu64 (
__mmask8 __U, __m128 __A) {
493 return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
494 (__v2di) _mm_setzero_si128(),
499 _mm256_cvtps_epu64 (__m128 __A) {
500 return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
501 (__v4di) _mm256_setzero_si256(),
506 _mm256_mask_cvtps_epu64 (__m256i __W,
__mmask8 __U, __m128 __A) {
507 return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
513 _mm256_maskz_cvtps_epu64 (
__mmask8 __U, __m128 __A) {
514 return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
515 (__v4di) _mm256_setzero_si256(),
520 _mm_cvtepi64_pd (__m128i __A) {
521 return (__m128d) __builtin_ia32_cvtqq2pd128_mask ((__v2di) __A,
522 (__v2df) _mm_setzero_pd(),
527 _mm_mask_cvtepi64_pd (__m128d __W,
__mmask8 __U, __m128i __A) {
528 return (__m128d) __builtin_ia32_cvtqq2pd128_mask ((__v2di) __A,
534 _mm_maskz_cvtepi64_pd (
__mmask8 __U, __m128i __A) {
535 return (__m128d) __builtin_ia32_cvtqq2pd128_mask ((__v2di) __A,
536 (__v2df) _mm_setzero_pd(),
541 _mm256_cvtepi64_pd (__m256i __A) {
542 return (__m256d) __builtin_ia32_cvtqq2pd256_mask ((__v4di) __A,
543 (__v4df) _mm256_setzero_pd(),
548 _mm256_mask_cvtepi64_pd (__m256d __W,
__mmask8 __U, __m256i __A) {
549 return (__m256d) __builtin_ia32_cvtqq2pd256_mask ((__v4di) __A,
555 _mm256_maskz_cvtepi64_pd (
__mmask8 __U, __m256i __A) {
556 return (__m256d) __builtin_ia32_cvtqq2pd256_mask ((__v4di) __A,
557 (__v4df) _mm256_setzero_pd(),
562 _mm_cvtepi64_ps (__m128i __A) {
563 return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
564 (__v4sf) _mm_setzero_ps(),
569 _mm_mask_cvtepi64_ps (__m128 __W,
__mmask8 __U, __m128i __A) {
570 return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
576 _mm_maskz_cvtepi64_ps (
__mmask8 __U, __m128i __A) {
577 return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
578 (__v4sf) _mm_setzero_ps(),
583 _mm256_cvtepi64_ps (__m256i __A) {
584 return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
585 (__v4sf) _mm_setzero_ps(),
590 _mm256_mask_cvtepi64_ps (__m128 __W,
__mmask8 __U, __m256i __A) {
591 return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
597 _mm256_maskz_cvtepi64_ps (
__mmask8 __U, __m256i __A) {
598 return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
599 (__v4sf) _mm_setzero_ps(),
604 _mm_cvttpd_epi64 (__m128d __A) {
605 return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
606 (__v2di) _mm_setzero_si128(),
611 _mm_mask_cvttpd_epi64 (__m128i __W,
__mmask8 __U, __m128d __A) {
612 return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
618 _mm_maskz_cvttpd_epi64 (
__mmask8 __U, __m128d __A) {
619 return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
620 (__v2di) _mm_setzero_si128(),
625 _mm256_cvttpd_epi64 (__m256d __A) {
626 return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
627 (__v4di) _mm256_setzero_si256(),
632 _mm256_mask_cvttpd_epi64 (__m256i __W,
__mmask8 __U, __m256d __A) {
633 return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
639 _mm256_maskz_cvttpd_epi64 (
__mmask8 __U, __m256d __A) {
640 return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
641 (__v4di) _mm256_setzero_si256(),
646 _mm_cvttpd_epu64 (__m128d __A) {
647 return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
648 (__v2di) _mm_setzero_si128(),
653 _mm_mask_cvttpd_epu64 (__m128i __W,
__mmask8 __U, __m128d __A) {
654 return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
660 _mm_maskz_cvttpd_epu64 (
__mmask8 __U, __m128d __A) {
661 return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
662 (__v2di) _mm_setzero_si128(),
667 _mm256_cvttpd_epu64 (__m256d __A) {
668 return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
669 (__v4di) _mm256_setzero_si256(),
674 _mm256_mask_cvttpd_epu64 (__m256i __W,
__mmask8 __U, __m256d __A) {
675 return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
681 _mm256_maskz_cvttpd_epu64 (
__mmask8 __U, __m256d __A) {
682 return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
683 (__v4di) _mm256_setzero_si256(),
688 _mm_cvttps_epi64 (__m128 __A) {
689 return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
690 (__v2di) _mm_setzero_si128(),
695 _mm_mask_cvttps_epi64 (__m128i __W,
__mmask8 __U, __m128 __A) {
696 return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
702 _mm_maskz_cvttps_epi64 (
__mmask8 __U, __m128 __A) {
703 return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
704 (__v2di) _mm_setzero_si128(),
709 _mm256_cvttps_epi64 (__m128 __A) {
710 return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
711 (__v4di) _mm256_setzero_si256(),
716 _mm256_mask_cvttps_epi64 (__m256i __W,
__mmask8 __U, __m128 __A) {
717 return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
723 _mm256_maskz_cvttps_epi64 (
__mmask8 __U, __m128 __A) {
724 return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
725 (__v4di) _mm256_setzero_si256(),
730 _mm_cvttps_epu64 (__m128 __A) {
731 return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
732 (__v2di) _mm_setzero_si128(),
737 _mm_mask_cvttps_epu64 (__m128i __W,
__mmask8 __U, __m128 __A) {
738 return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
744 _mm_maskz_cvttps_epu64 (
__mmask8 __U, __m128 __A) {
745 return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
746 (__v2di) _mm_setzero_si128(),
751 _mm256_cvttps_epu64 (__m128 __A) {
752 return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
753 (__v4di) _mm256_setzero_si256(),
758 _mm256_mask_cvttps_epu64 (__m256i __W,
__mmask8 __U, __m128 __A) {
759 return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
765 _mm256_maskz_cvttps_epu64 (
__mmask8 __U, __m128 __A) {
766 return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
767 (__v4di) _mm256_setzero_si256(),
772 _mm_cvtepu64_pd (__m128i __A) {
773 return (__m128d) __builtin_ia32_cvtuqq2pd128_mask ((__v2di) __A,
774 (__v2df) _mm_setzero_pd(),
779 _mm_mask_cvtepu64_pd (__m128d __W,
__mmask8 __U, __m128i __A) {
780 return (__m128d) __builtin_ia32_cvtuqq2pd128_mask ((__v2di) __A,
786 _mm_maskz_cvtepu64_pd (
__mmask8 __U, __m128i __A) {
787 return (__m128d) __builtin_ia32_cvtuqq2pd128_mask ((__v2di) __A,
788 (__v2df) _mm_setzero_pd(),
793 _mm256_cvtepu64_pd (__m256i __A) {
794 return (__m256d) __builtin_ia32_cvtuqq2pd256_mask ((__v4di) __A,
795 (__v4df) _mm256_setzero_pd(),
800 _mm256_mask_cvtepu64_pd (__m256d __W,
__mmask8 __U, __m256i __A) {
801 return (__m256d) __builtin_ia32_cvtuqq2pd256_mask ((__v4di) __A,
807 _mm256_maskz_cvtepu64_pd (
__mmask8 __U, __m256i __A) {
808 return (__m256d) __builtin_ia32_cvtuqq2pd256_mask ((__v4di) __A,
809 (__v4df) _mm256_setzero_pd(),
814 _mm_cvtepu64_ps (__m128i __A) {
815 return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
816 (__v4sf) _mm_setzero_ps(),
821 _mm_mask_cvtepu64_ps (__m128 __W,
__mmask8 __U, __m128i __A) {
822 return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
828 _mm_maskz_cvtepu64_ps (
__mmask8 __U, __m128i __A) {
829 return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
830 (__v4sf) _mm_setzero_ps(),
835 _mm256_cvtepu64_ps (__m256i __A) {
836 return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
837 (__v4sf) _mm_setzero_ps(),
842 _mm256_mask_cvtepu64_ps (__m128 __W,
__mmask8 __U, __m256i __A) {
843 return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
849 _mm256_maskz_cvtepu64_ps (
__mmask8 __U, __m256i __A) {
850 return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
851 (__v4sf) _mm_setzero_ps(),
855 #define _mm_range_pd(__A, __B, __C) __extension__ ({ \
856 (__m128d) __builtin_ia32_rangepd128_mask ((__v2df) __A, (__v2df) __B, __C, \
857 (__v2df) _mm_setzero_pd(), (__mmask8) -1); })
859 #define _mm_mask_range_pd(__W, __U, __A, __B, __C) __extension__ ({ \
860 (__m128d) __builtin_ia32_rangepd128_mask ((__v2df) __A, (__v2df) __B, __C, \
861 (__v2df) __W, (__mmask8) __U); })
863 #define _mm_maskz_range_pd(__U, __A, __B, __C) __extension__ ({ \
864 (__m128d) __builtin_ia32_rangepd128_mask ((__v2df) __A, (__v2df) __B, __C, \
865 (__v2df) _mm_setzero_pd(), (__mmask8) __U); })
867 #define _mm256_range_pd(__A, __B, __C) __extension__ ({ \
868 (__m256d) __builtin_ia32_rangepd256_mask ((__v4df) __A, (__v4df) __B, __C, \
869 (__v4df) _mm256_setzero_pd(), (__mmask8) -1); })
871 #define _mm256_mask_range_pd(__W, __U, __A, __B, __C) __extension__ ({ \
872 (__m256d) __builtin_ia32_rangepd256_mask ((__v4df) __A, (__v4df) __B, __C, \
873 (__v4df) __W, (__mmask8) __U); })
875 #define _mm256_maskz_range_pd(__U, __A, __B, __C) __extension__ ({ \
876 (__m256d) __builtin_ia32_rangepd256_mask ((__v4df) __A, (__v4df) __B, __C, \
877 (__v4df) _mm256_setzero_pd(), (__mmask8) __U); })
879 #define _mm_range_ps(__A, __B, __C) __extension__ ({ \
880 (__m128) __builtin_ia32_rangeps128_mask ((__v4sf) __A, (__v4sf) __B, __C, \
881 (__v4sf) _mm_setzero_ps(), (__mmask8) -1); })
883 #define _mm_mask_range_ps(__W, __U, __A, __B, __C) __extension__ ({ \
884 (__m128) __builtin_ia32_rangeps128_mask ((__v4sf) __A, (__v4sf) __B, __C, \
885 (__v4sf) __W, (__mmask8) __U); })
887 #define _mm_maskz_range_ps(__U, __A, __B, __C) __extension__ ({ \
888 (__m128) __builtin_ia32_rangeps128_mask ((__v4sf) __A, (__v4sf) __B, __C, \
889 (__v4sf) _mm_setzero_ps(), (__mmask8) __U); })
891 #define _mm256_range_ps(__A, __B, __C) __extension__ ({ \
892 (__m256) __builtin_ia32_rangeps256_mask ((__v8sf) __A, (__v8sf) __B, __C, \
893 (__v8sf) _mm256_setzero_ps(), (__mmask8) -1); })
895 #define _mm256_mask_range_ps(__W, __U, __A, __B, __C) __extension__ ({ \
896 (__m256) __builtin_ia32_rangeps256_mask ((__v8sf) __A, (__v8sf) __B, __C, \
897 (__v8sf) __W, (__mmask8) __U); })
899 #define _mm256_maskz_range_ps(__U, __A, __B, __C) __extension__ ({ \
900 (__m256) __builtin_ia32_rangeps256_mask ((__v8sf) __A, (__v8sf) __B, __C, \
901 (__v8sf) _mm256_setzero_ps(), (__mmask8) __U); })
903 #define _mm_reduce_pd(__A, __B) __extension__ ({ \
904 (__m128d) __builtin_ia32_reducepd128_mask ((__v2df) __A, __B, \
905 (__v2df) _mm_setzero_pd(), (__mmask8) -1); })
907 #define _mm_mask_reduce_pd(__W, __U, __A, __B) __extension__ ({ \
908 (__m128d) __builtin_ia32_reducepd128_mask ((__v2df) __A, __B, \
909 (__v2df) __W, (__mmask8) __U); })
911 #define _mm_maskz_reduce_pd(__U, __A, __B) __extension__ ({ \
912 (__m128d) __builtin_ia32_reducepd128_mask ((__v2df) __A, __B, \
913 (__v2df) _mm_setzero_pd(), (__mmask8) __U); })
915 #define _mm256_reduce_pd(__A, __B) __extension__ ({ \
916 (__m256d) __builtin_ia32_reducepd256_mask ((__v4df) __A, __B, \
917 (__v4df) _mm256_setzero_pd(), (__mmask8) -1); })
919 #define _mm256_mask_reduce_pd(__W, __U, __A, __B) __extension__ ({ \
920 (__m256d) __builtin_ia32_reducepd256_mask ((__v4df) __A, __B, \
921 (__v4df) __W, (__mmask8) __U); })
923 #define _mm256_maskz_reduce_pd(__U, __A, __B) __extension__ ({ \
924 (__m256d) __builtin_ia32_reducepd256_mask ((__v4df) __A, __B, \
925 (__v4df) _mm256_setzero_pd(), (__mmask8) __U); })
927 #define _mm_reduce_ps(__A, __B) __extension__ ({ \
928 (__m128) __builtin_ia32_reduceps128_mask ((__v4sf) __A, __B, \
929 (__v4sf) _mm_setzero_ps(), (__mmask8) -1); })
931 #define _mm_mask_reduce_ps(__W, __U, __A, __B) __extension__ ({ \
932 (__m128) __builtin_ia32_reduceps128_mask ((__v4sf) __A, __B, \
933 (__v4sf) __W, (__mmask8) __U); })
935 #define _mm_maskz_reduce_ps(__U, __A, __B) __extension__ ({ \
936 (__m128) __builtin_ia32_reduceps128_mask ((__v4sf) __A, __B, \
937 (__v4sf) _mm_setzero_ps(), (__mmask8) __U); })
939 #define _mm256_reduce_ps(__A, __B) __extension__ ({ \
940 (__m256) __builtin_ia32_reduceps256_mask ((__v8sf) __A, __B, \
941 (__v8sf) _mm256_setzero_ps(), (__mmask8) -1); })
943 #define _mm256_mask_reduce_ps(__W, __U, __A, __B) __extension__ ({ \
944 (__m256) __builtin_ia32_reduceps256_mask ((__v8sf) __A, __B, \
945 (__v8sf) __W, (__mmask8) __U); })
947 #define _mm256_maskz_reduce_ps(__U, __A, __B) __extension__ ({ \
948 (__m256) __builtin_ia32_reduceps256_mask ((__v8sf) __A, __B, \
949 (__v8sf) _mm256_setzero_ps(), (__mmask8) __U); })
951 #undef __DEFAULT_FN_ATTRS
unsigned char __mmask8
Definition: avx512fintrin.h:39
#define __DEFAULT_FN_ATTRS
Definition: avx512vldqintrin.h:32