clang  7.0.0svn
avx512vldqintrin.h
Go to the documentation of this file.
1 /*===---- avx512vldqintrin.h - AVX512VL and AVX512DQ intrinsics ------------===
2  *
3  * Permission is hereby granted, free of charge, to any person obtaining a copy
4  * of this software and associated documentation files (the "Software"), to deal
5  * in the Software without restriction, including without limitation the rights
6  * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
7  * copies of the Software, and to permit persons to whom the Software is
8  * furnished to do so, subject to the following conditions:
9  *
10  * The above copyright notice and this permission notice shall be included in
11  * all copies or substantial portions of the Software.
12  *
13  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
14  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
15  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
16  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
17  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
18  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN
19  * THE SOFTWARE.
20  *
21  *===-----------------------------------------------------------------------===
22  */
23 
24 #ifndef __IMMINTRIN_H
25 #error "Never use <avx512vldqintrin.h> directly; include <immintrin.h> instead."
26 #endif
27 
28 #ifndef __AVX512VLDQINTRIN_H
29 #define __AVX512VLDQINTRIN_H
30 
31 /* Define the default attributes for the functions in this file. */
32 #define __DEFAULT_FN_ATTRS __attribute__((__always_inline__, __nodebug__, __target__("avx512vl,avx512dq")))
33 
34 static __inline__ __m256i __DEFAULT_FN_ATTRS
35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) {
36  return (__m256i) ((__v4du) __A * (__v4du) __B);
37 }
38 
39 static __inline__ __m256i __DEFAULT_FN_ATTRS
40 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) {
41  return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U,
42  (__v4di)_mm256_mullo_epi64(__A, __B),
43  (__v4di)__W);
44 }
45 
46 static __inline__ __m256i __DEFAULT_FN_ATTRS
47 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) {
48  return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U,
49  (__v4di)_mm256_mullo_epi64(__A, __B),
50  (__v4di)_mm256_setzero_si256());
51 }
52 
53 static __inline__ __m128i __DEFAULT_FN_ATTRS
54 _mm_mullo_epi64 (__m128i __A, __m128i __B) {
55  return (__m128i) ((__v2du) __A * (__v2du) __B);
56 }
57 
58 static __inline__ __m128i __DEFAULT_FN_ATTRS
59 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) {
60  return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U,
61  (__v2di)_mm_mullo_epi64(__A, __B),
62  (__v2di)__W);
63 }
64 
65 static __inline__ __m128i __DEFAULT_FN_ATTRS
66 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) {
67  return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U,
68  (__v2di)_mm_mullo_epi64(__A, __B),
69  (__v2di)_mm_setzero_si128());
70 }
71 
72 static __inline__ __m256d __DEFAULT_FN_ATTRS
73 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
74  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
75  (__v4df)_mm256_andnot_pd(__A, __B),
76  (__v4df)__W);
77 }
78 
79 static __inline__ __m256d __DEFAULT_FN_ATTRS
80 _mm256_maskz_andnot_pd(__mmask8 __U, __m256d __A, __m256d __B) {
81  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
82  (__v4df)_mm256_andnot_pd(__A, __B),
83  (__v4df)_mm256_setzero_pd());
84 }
85 
86 static __inline__ __m128d __DEFAULT_FN_ATTRS
87 _mm_mask_andnot_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) {
88  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
89  (__v2df)_mm_andnot_pd(__A, __B),
90  (__v2df)__W);
91 }
92 
93 static __inline__ __m128d __DEFAULT_FN_ATTRS
94 _mm_maskz_andnot_pd(__mmask8 __U, __m128d __A, __m128d __B) {
95  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
96  (__v2df)_mm_andnot_pd(__A, __B),
97  (__v2df)_mm_setzero_pd());
98 }
99 
100 static __inline__ __m256 __DEFAULT_FN_ATTRS
101 _mm256_mask_andnot_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
102  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
103  (__v8sf)_mm256_andnot_ps(__A, __B),
104  (__v8sf)__W);
105 }
106 
107 static __inline__ __m256 __DEFAULT_FN_ATTRS
108 _mm256_maskz_andnot_ps(__mmask8 __U, __m256 __A, __m256 __B) {
109  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
110  (__v8sf)_mm256_andnot_ps(__A, __B),
111  (__v8sf)_mm256_setzero_ps());
112 }
113 
114 static __inline__ __m128 __DEFAULT_FN_ATTRS
115 _mm_mask_andnot_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) {
116  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
117  (__v4sf)_mm_andnot_ps(__A, __B),
118  (__v4sf)__W);
119 }
120 
121 static __inline__ __m128 __DEFAULT_FN_ATTRS
122 _mm_maskz_andnot_ps(__mmask8 __U, __m128 __A, __m128 __B) {
123  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
124  (__v4sf)_mm_andnot_ps(__A, __B),
125  (__v4sf)_mm_setzero_ps());
126 }
127 
128 static __inline__ __m256d __DEFAULT_FN_ATTRS
129 _mm256_mask_and_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
130  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
131  (__v4df)_mm256_and_pd(__A, __B),
132  (__v4df)__W);
133 }
134 
135 static __inline__ __m256d __DEFAULT_FN_ATTRS
136 _mm256_maskz_and_pd(__mmask8 __U, __m256d __A, __m256d __B) {
137  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
138  (__v4df)_mm256_and_pd(__A, __B),
139  (__v4df)_mm256_setzero_pd());
140 }
141 
142 static __inline__ __m128d __DEFAULT_FN_ATTRS
143 _mm_mask_and_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) {
144  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
145  (__v2df)_mm_and_pd(__A, __B),
146  (__v2df)__W);
147 }
148 
149 static __inline__ __m128d __DEFAULT_FN_ATTRS
150 _mm_maskz_and_pd(__mmask8 __U, __m128d __A, __m128d __B) {
151  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
152  (__v2df)_mm_and_pd(__A, __B),
153  (__v2df)_mm_setzero_pd());
154 }
155 
156 static __inline__ __m256 __DEFAULT_FN_ATTRS
157 _mm256_mask_and_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
158  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
159  (__v8sf)_mm256_and_ps(__A, __B),
160  (__v8sf)__W);
161 }
162 
163 static __inline__ __m256 __DEFAULT_FN_ATTRS
164 _mm256_maskz_and_ps(__mmask8 __U, __m256 __A, __m256 __B) {
165  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
166  (__v8sf)_mm256_and_ps(__A, __B),
167  (__v8sf)_mm256_setzero_ps());
168 }
169 
170 static __inline__ __m128 __DEFAULT_FN_ATTRS
171 _mm_mask_and_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) {
172  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
173  (__v4sf)_mm_and_ps(__A, __B),
174  (__v4sf)__W);
175 }
176 
177 static __inline__ __m128 __DEFAULT_FN_ATTRS
178 _mm_maskz_and_ps(__mmask8 __U, __m128 __A, __m128 __B) {
179  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
180  (__v4sf)_mm_and_ps(__A, __B),
181  (__v4sf)_mm_setzero_ps());
182 }
183 
184 static __inline__ __m256d __DEFAULT_FN_ATTRS
185 _mm256_mask_xor_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
186  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
187  (__v4df)_mm256_xor_pd(__A, __B),
188  (__v4df)__W);
189 }
190 
191 static __inline__ __m256d __DEFAULT_FN_ATTRS
192 _mm256_maskz_xor_pd(__mmask8 __U, __m256d __A, __m256d __B) {
193  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
194  (__v4df)_mm256_xor_pd(__A, __B),
195  (__v4df)_mm256_setzero_pd());
196 }
197 
198 static __inline__ __m128d __DEFAULT_FN_ATTRS
199 _mm_mask_xor_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) {
200  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
201  (__v2df)_mm_xor_pd(__A, __B),
202  (__v2df)__W);
203 }
204 
205 static __inline__ __m128d __DEFAULT_FN_ATTRS
206 _mm_maskz_xor_pd (__mmask8 __U, __m128d __A, __m128d __B) {
207  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
208  (__v2df)_mm_xor_pd(__A, __B),
209  (__v2df)_mm_setzero_pd());
210 }
211 
212 static __inline__ __m256 __DEFAULT_FN_ATTRS
213 _mm256_mask_xor_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
214  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
215  (__v8sf)_mm256_xor_ps(__A, __B),
216  (__v8sf)__W);
217 }
218 
219 static __inline__ __m256 __DEFAULT_FN_ATTRS
220 _mm256_maskz_xor_ps(__mmask8 __U, __m256 __A, __m256 __B) {
221  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
222  (__v8sf)_mm256_xor_ps(__A, __B),
223  (__v8sf)_mm256_setzero_ps());
224 }
225 
226 static __inline__ __m128 __DEFAULT_FN_ATTRS
227 _mm_mask_xor_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) {
228  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
229  (__v4sf)_mm_xor_ps(__A, __B),
230  (__v4sf)__W);
231 }
232 
233 static __inline__ __m128 __DEFAULT_FN_ATTRS
234 _mm_maskz_xor_ps(__mmask8 __U, __m128 __A, __m128 __B) {
235  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
236  (__v4sf)_mm_xor_ps(__A, __B),
237  (__v4sf)_mm_setzero_ps());
238 }
239 
240 static __inline__ __m256d __DEFAULT_FN_ATTRS
241 _mm256_mask_or_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
242  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
243  (__v4df)_mm256_or_pd(__A, __B),
244  (__v4df)__W);
245 }
246 
247 static __inline__ __m256d __DEFAULT_FN_ATTRS
248 _mm256_maskz_or_pd(__mmask8 __U, __m256d __A, __m256d __B) {
249  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
250  (__v4df)_mm256_or_pd(__A, __B),
251  (__v4df)_mm256_setzero_pd());
252 }
253 
254 static __inline__ __m128d __DEFAULT_FN_ATTRS
255 _mm_mask_or_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) {
256  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
257  (__v2df)_mm_or_pd(__A, __B),
258  (__v2df)__W);
259 }
260 
261 static __inline__ __m128d __DEFAULT_FN_ATTRS
262 _mm_maskz_or_pd(__mmask8 __U, __m128d __A, __m128d __B) {
263  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
264  (__v2df)_mm_or_pd(__A, __B),
265  (__v2df)_mm_setzero_pd());
266 }
267 
268 static __inline__ __m256 __DEFAULT_FN_ATTRS
269 _mm256_mask_or_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
270  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
271  (__v8sf)_mm256_or_ps(__A, __B),
272  (__v8sf)__W);
273 }
274 
275 static __inline__ __m256 __DEFAULT_FN_ATTRS
276 _mm256_maskz_or_ps(__mmask8 __U, __m256 __A, __m256 __B) {
277  return (__m256)__builtin_ia32_selectps_256((__mmask8)__U,
278  (__v8sf)_mm256_or_ps(__A, __B),
279  (__v8sf)_mm256_setzero_ps());
280 }
281 
282 static __inline__ __m128 __DEFAULT_FN_ATTRS
283 _mm_mask_or_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B) {
284  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
285  (__v4sf)_mm_or_ps(__A, __B),
286  (__v4sf)__W);
287 }
288 
289 static __inline__ __m128 __DEFAULT_FN_ATTRS
290 _mm_maskz_or_ps(__mmask8 __U, __m128 __A, __m128 __B) {
291  return (__m128)__builtin_ia32_selectps_128((__mmask8)__U,
292  (__v4sf)_mm_or_ps(__A, __B),
293  (__v4sf)_mm_setzero_ps());
294 }
295 
296 static __inline__ __m128i __DEFAULT_FN_ATTRS
297 _mm_cvtpd_epi64 (__m128d __A) {
298  return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
299  (__v2di) _mm_setzero_si128(),
300  (__mmask8) -1);
301 }
302 
303 static __inline__ __m128i __DEFAULT_FN_ATTRS
304 _mm_mask_cvtpd_epi64 (__m128i __W, __mmask8 __U, __m128d __A) {
305  return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
306  (__v2di) __W,
307  (__mmask8) __U);
308 }
309 
310 static __inline__ __m128i __DEFAULT_FN_ATTRS
311 _mm_maskz_cvtpd_epi64 (__mmask8 __U, __m128d __A) {
312  return (__m128i) __builtin_ia32_cvtpd2qq128_mask ((__v2df) __A,
313  (__v2di) _mm_setzero_si128(),
314  (__mmask8) __U);
315 }
316 
317 static __inline__ __m256i __DEFAULT_FN_ATTRS
318 _mm256_cvtpd_epi64 (__m256d __A) {
319  return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
320  (__v4di) _mm256_setzero_si256(),
321  (__mmask8) -1);
322 }
323 
324 static __inline__ __m256i __DEFAULT_FN_ATTRS
325 _mm256_mask_cvtpd_epi64 (__m256i __W, __mmask8 __U, __m256d __A) {
326  return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
327  (__v4di) __W,
328  (__mmask8) __U);
329 }
330 
331 static __inline__ __m256i __DEFAULT_FN_ATTRS
332 _mm256_maskz_cvtpd_epi64 (__mmask8 __U, __m256d __A) {
333  return (__m256i) __builtin_ia32_cvtpd2qq256_mask ((__v4df) __A,
334  (__v4di) _mm256_setzero_si256(),
335  (__mmask8) __U);
336 }
337 
338 static __inline__ __m128i __DEFAULT_FN_ATTRS
339 _mm_cvtpd_epu64 (__m128d __A) {
340  return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
341  (__v2di) _mm_setzero_si128(),
342  (__mmask8) -1);
343 }
344 
345 static __inline__ __m128i __DEFAULT_FN_ATTRS
346 _mm_mask_cvtpd_epu64 (__m128i __W, __mmask8 __U, __m128d __A) {
347  return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
348  (__v2di) __W,
349  (__mmask8) __U);
350 }
351 
352 static __inline__ __m128i __DEFAULT_FN_ATTRS
353 _mm_maskz_cvtpd_epu64 (__mmask8 __U, __m128d __A) {
354  return (__m128i) __builtin_ia32_cvtpd2uqq128_mask ((__v2df) __A,
355  (__v2di) _mm_setzero_si128(),
356  (__mmask8) __U);
357 }
358 
359 static __inline__ __m256i __DEFAULT_FN_ATTRS
360 _mm256_cvtpd_epu64 (__m256d __A) {
361  return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
362  (__v4di) _mm256_setzero_si256(),
363  (__mmask8) -1);
364 }
365 
366 static __inline__ __m256i __DEFAULT_FN_ATTRS
367 _mm256_mask_cvtpd_epu64 (__m256i __W, __mmask8 __U, __m256d __A) {
368  return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
369  (__v4di) __W,
370  (__mmask8) __U);
371 }
372 
373 static __inline__ __m256i __DEFAULT_FN_ATTRS
374 _mm256_maskz_cvtpd_epu64 (__mmask8 __U, __m256d __A) {
375  return (__m256i) __builtin_ia32_cvtpd2uqq256_mask ((__v4df) __A,
376  (__v4di) _mm256_setzero_si256(),
377  (__mmask8) __U);
378 }
379 
380 static __inline__ __m128i __DEFAULT_FN_ATTRS
381 _mm_cvtps_epi64 (__m128 __A) {
382  return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
383  (__v2di) _mm_setzero_si128(),
384  (__mmask8) -1);
385 }
386 
387 static __inline__ __m128i __DEFAULT_FN_ATTRS
388 _mm_mask_cvtps_epi64 (__m128i __W, __mmask8 __U, __m128 __A) {
389  return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
390  (__v2di) __W,
391  (__mmask8) __U);
392 }
393 
394 static __inline__ __m128i __DEFAULT_FN_ATTRS
395 _mm_maskz_cvtps_epi64 (__mmask8 __U, __m128 __A) {
396  return (__m128i) __builtin_ia32_cvtps2qq128_mask ((__v4sf) __A,
397  (__v2di) _mm_setzero_si128(),
398  (__mmask8) __U);
399 }
400 
401 static __inline__ __m256i __DEFAULT_FN_ATTRS
402 _mm256_cvtps_epi64 (__m128 __A) {
403  return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
404  (__v4di) _mm256_setzero_si256(),
405  (__mmask8) -1);
406 }
407 
408 static __inline__ __m256i __DEFAULT_FN_ATTRS
409 _mm256_mask_cvtps_epi64 (__m256i __W, __mmask8 __U, __m128 __A) {
410  return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
411  (__v4di) __W,
412  (__mmask8) __U);
413 }
414 
415 static __inline__ __m256i __DEFAULT_FN_ATTRS
417  return (__m256i) __builtin_ia32_cvtps2qq256_mask ((__v4sf) __A,
418  (__v4di) _mm256_setzero_si256(),
419  (__mmask8) __U);
420 }
421 
422 static __inline__ __m128i __DEFAULT_FN_ATTRS
423 _mm_cvtps_epu64 (__m128 __A) {
424  return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
425  (__v2di) _mm_setzero_si128(),
426  (__mmask8) -1);
427 }
428 
429 static __inline__ __m128i __DEFAULT_FN_ATTRS
430 _mm_mask_cvtps_epu64 (__m128i __W, __mmask8 __U, __m128 __A) {
431  return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
432  (__v2di) __W,
433  (__mmask8) __U);
434 }
435 
436 static __inline__ __m128i __DEFAULT_FN_ATTRS
437 _mm_maskz_cvtps_epu64 (__mmask8 __U, __m128 __A) {
438  return (__m128i) __builtin_ia32_cvtps2uqq128_mask ((__v4sf) __A,
439  (__v2di) _mm_setzero_si128(),
440  (__mmask8) __U);
441 }
442 
443 static __inline__ __m256i __DEFAULT_FN_ATTRS
444 _mm256_cvtps_epu64 (__m128 __A) {
445  return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
446  (__v4di) _mm256_setzero_si256(),
447  (__mmask8) -1);
448 }
449 
450 static __inline__ __m256i __DEFAULT_FN_ATTRS
451 _mm256_mask_cvtps_epu64 (__m256i __W, __mmask8 __U, __m128 __A) {
452  return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
453  (__v4di) __W,
454  (__mmask8) __U);
455 }
456 
457 static __inline__ __m256i __DEFAULT_FN_ATTRS
459  return (__m256i) __builtin_ia32_cvtps2uqq256_mask ((__v4sf) __A,
460  (__v4di) _mm256_setzero_si256(),
461  (__mmask8) __U);
462 }
463 
464 static __inline__ __m128d __DEFAULT_FN_ATTRS
465 _mm_cvtepi64_pd (__m128i __A) {
466  return (__m128d)__builtin_convertvector((__v2di)__A, __v2df);
467 }
468 
469 static __inline__ __m128d __DEFAULT_FN_ATTRS
470 _mm_mask_cvtepi64_pd (__m128d __W, __mmask8 __U, __m128i __A) {
471  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
472  (__v2df)_mm_cvtepi64_pd(__A),
473  (__v2df)__W);
474 }
475 
476 static __inline__ __m128d __DEFAULT_FN_ATTRS
477 _mm_maskz_cvtepi64_pd (__mmask8 __U, __m128i __A) {
478  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
479  (__v2df)_mm_cvtepi64_pd(__A),
480  (__v2df)_mm_setzero_pd());
481 }
482 
483 static __inline__ __m256d __DEFAULT_FN_ATTRS
484 _mm256_cvtepi64_pd (__m256i __A) {
485  return (__m256d)__builtin_convertvector((__v4di)__A, __v4df);
486 }
487 
488 static __inline__ __m256d __DEFAULT_FN_ATTRS
489 _mm256_mask_cvtepi64_pd (__m256d __W, __mmask8 __U, __m256i __A) {
490  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
491  (__v4df)_mm256_cvtepi64_pd(__A),
492  (__v4df)__W);
493 }
494 
495 static __inline__ __m256d __DEFAULT_FN_ATTRS
496 _mm256_maskz_cvtepi64_pd (__mmask8 __U, __m256i __A) {
497  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
498  (__v4df)_mm256_cvtepi64_pd(__A),
499  (__v4df)_mm256_setzero_pd());
500 }
501 
502 static __inline__ __m128 __DEFAULT_FN_ATTRS
503 _mm_cvtepi64_ps (__m128i __A) {
504  return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
505  (__v4sf) _mm_setzero_ps(),
506  (__mmask8) -1);
507 }
508 
509 static __inline__ __m128 __DEFAULT_FN_ATTRS
510 _mm_mask_cvtepi64_ps (__m128 __W, __mmask8 __U, __m128i __A) {
511  return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
512  (__v4sf) __W,
513  (__mmask8) __U);
514 }
515 
516 static __inline__ __m128 __DEFAULT_FN_ATTRS
517 _mm_maskz_cvtepi64_ps (__mmask8 __U, __m128i __A) {
518  return (__m128) __builtin_ia32_cvtqq2ps128_mask ((__v2di) __A,
519  (__v4sf) _mm_setzero_ps(),
520  (__mmask8) __U);
521 }
522 
523 static __inline__ __m128 __DEFAULT_FN_ATTRS
524 _mm256_cvtepi64_ps (__m256i __A) {
525  return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
526  (__v4sf) _mm_setzero_ps(),
527  (__mmask8) -1);
528 }
529 
530 static __inline__ __m128 __DEFAULT_FN_ATTRS
531 _mm256_mask_cvtepi64_ps (__m128 __W, __mmask8 __U, __m256i __A) {
532  return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
533  (__v4sf) __W,
534  (__mmask8) __U);
535 }
536 
537 static __inline__ __m128 __DEFAULT_FN_ATTRS
538 _mm256_maskz_cvtepi64_ps (__mmask8 __U, __m256i __A) {
539  return (__m128) __builtin_ia32_cvtqq2ps256_mask ((__v4di) __A,
540  (__v4sf) _mm_setzero_ps(),
541  (__mmask8) __U);
542 }
543 
544 static __inline__ __m128i __DEFAULT_FN_ATTRS
545 _mm_cvttpd_epi64 (__m128d __A) {
546  return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
547  (__v2di) _mm_setzero_si128(),
548  (__mmask8) -1);
549 }
550 
551 static __inline__ __m128i __DEFAULT_FN_ATTRS
552 _mm_mask_cvttpd_epi64 (__m128i __W, __mmask8 __U, __m128d __A) {
553  return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
554  (__v2di) __W,
555  (__mmask8) __U);
556 }
557 
558 static __inline__ __m128i __DEFAULT_FN_ATTRS
559 _mm_maskz_cvttpd_epi64 (__mmask8 __U, __m128d __A) {
560  return (__m128i) __builtin_ia32_cvttpd2qq128_mask ((__v2df) __A,
561  (__v2di) _mm_setzero_si128(),
562  (__mmask8) __U);
563 }
564 
565 static __inline__ __m256i __DEFAULT_FN_ATTRS
566 _mm256_cvttpd_epi64 (__m256d __A) {
567  return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
568  (__v4di) _mm256_setzero_si256(),
569  (__mmask8) -1);
570 }
571 
572 static __inline__ __m256i __DEFAULT_FN_ATTRS
573 _mm256_mask_cvttpd_epi64 (__m256i __W, __mmask8 __U, __m256d __A) {
574  return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
575  (__v4di) __W,
576  (__mmask8) __U);
577 }
578 
579 static __inline__ __m256i __DEFAULT_FN_ATTRS
581  return (__m256i) __builtin_ia32_cvttpd2qq256_mask ((__v4df) __A,
582  (__v4di) _mm256_setzero_si256(),
583  (__mmask8) __U);
584 }
585 
586 static __inline__ __m128i __DEFAULT_FN_ATTRS
587 _mm_cvttpd_epu64 (__m128d __A) {
588  return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
589  (__v2di) _mm_setzero_si128(),
590  (__mmask8) -1);
591 }
592 
593 static __inline__ __m128i __DEFAULT_FN_ATTRS
594 _mm_mask_cvttpd_epu64 (__m128i __W, __mmask8 __U, __m128d __A) {
595  return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
596  (__v2di) __W,
597  (__mmask8) __U);
598 }
599 
600 static __inline__ __m128i __DEFAULT_FN_ATTRS
601 _mm_maskz_cvttpd_epu64 (__mmask8 __U, __m128d __A) {
602  return (__m128i) __builtin_ia32_cvttpd2uqq128_mask ((__v2df) __A,
603  (__v2di) _mm_setzero_si128(),
604  (__mmask8) __U);
605 }
606 
607 static __inline__ __m256i __DEFAULT_FN_ATTRS
608 _mm256_cvttpd_epu64 (__m256d __A) {
609  return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
610  (__v4di) _mm256_setzero_si256(),
611  (__mmask8) -1);
612 }
613 
614 static __inline__ __m256i __DEFAULT_FN_ATTRS
615 _mm256_mask_cvttpd_epu64 (__m256i __W, __mmask8 __U, __m256d __A) {
616  return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
617  (__v4di) __W,
618  (__mmask8) __U);
619 }
620 
621 static __inline__ __m256i __DEFAULT_FN_ATTRS
623  return (__m256i) __builtin_ia32_cvttpd2uqq256_mask ((__v4df) __A,
624  (__v4di) _mm256_setzero_si256(),
625  (__mmask8) __U);
626 }
627 
628 static __inline__ __m128i __DEFAULT_FN_ATTRS
629 _mm_cvttps_epi64 (__m128 __A) {
630  return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
631  (__v2di) _mm_setzero_si128(),
632  (__mmask8) -1);
633 }
634 
635 static __inline__ __m128i __DEFAULT_FN_ATTRS
636 _mm_mask_cvttps_epi64 (__m128i __W, __mmask8 __U, __m128 __A) {
637  return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
638  (__v2di) __W,
639  (__mmask8) __U);
640 }
641 
642 static __inline__ __m128i __DEFAULT_FN_ATTRS
643 _mm_maskz_cvttps_epi64 (__mmask8 __U, __m128 __A) {
644  return (__m128i) __builtin_ia32_cvttps2qq128_mask ((__v4sf) __A,
645  (__v2di) _mm_setzero_si128(),
646  (__mmask8) __U);
647 }
648 
649 static __inline__ __m256i __DEFAULT_FN_ATTRS
650 _mm256_cvttps_epi64 (__m128 __A) {
651  return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
652  (__v4di) _mm256_setzero_si256(),
653  (__mmask8) -1);
654 }
655 
656 static __inline__ __m256i __DEFAULT_FN_ATTRS
657 _mm256_mask_cvttps_epi64 (__m256i __W, __mmask8 __U, __m128 __A) {
658  return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
659  (__v4di) __W,
660  (__mmask8) __U);
661 }
662 
663 static __inline__ __m256i __DEFAULT_FN_ATTRS
665  return (__m256i) __builtin_ia32_cvttps2qq256_mask ((__v4sf) __A,
666  (__v4di) _mm256_setzero_si256(),
667  (__mmask8) __U);
668 }
669 
670 static __inline__ __m128i __DEFAULT_FN_ATTRS
671 _mm_cvttps_epu64 (__m128 __A) {
672  return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
673  (__v2di) _mm_setzero_si128(),
674  (__mmask8) -1);
675 }
676 
677 static __inline__ __m128i __DEFAULT_FN_ATTRS
678 _mm_mask_cvttps_epu64 (__m128i __W, __mmask8 __U, __m128 __A) {
679  return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
680  (__v2di) __W,
681  (__mmask8) __U);
682 }
683 
684 static __inline__ __m128i __DEFAULT_FN_ATTRS
685 _mm_maskz_cvttps_epu64 (__mmask8 __U, __m128 __A) {
686  return (__m128i) __builtin_ia32_cvttps2uqq128_mask ((__v4sf) __A,
687  (__v2di) _mm_setzero_si128(),
688  (__mmask8) __U);
689 }
690 
691 static __inline__ __m256i __DEFAULT_FN_ATTRS
692 _mm256_cvttps_epu64 (__m128 __A) {
693  return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
694  (__v4di) _mm256_setzero_si256(),
695  (__mmask8) -1);
696 }
697 
698 static __inline__ __m256i __DEFAULT_FN_ATTRS
699 _mm256_mask_cvttps_epu64 (__m256i __W, __mmask8 __U, __m128 __A) {
700  return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
701  (__v4di) __W,
702  (__mmask8) __U);
703 }
704 
705 static __inline__ __m256i __DEFAULT_FN_ATTRS
707  return (__m256i) __builtin_ia32_cvttps2uqq256_mask ((__v4sf) __A,
708  (__v4di) _mm256_setzero_si256(),
709  (__mmask8) __U);
710 }
711 
712 static __inline__ __m128d __DEFAULT_FN_ATTRS
713 _mm_cvtepu64_pd (__m128i __A) {
714  return (__m128d)__builtin_convertvector((__v2du)__A, __v2df);
715 }
716 
717 static __inline__ __m128d __DEFAULT_FN_ATTRS
718 _mm_mask_cvtepu64_pd (__m128d __W, __mmask8 __U, __m128i __A) {
719  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
720  (__v2df)_mm_cvtepu64_pd(__A),
721  (__v2df)__W);
722 }
723 
724 static __inline__ __m128d __DEFAULT_FN_ATTRS
725 _mm_maskz_cvtepu64_pd (__mmask8 __U, __m128i __A) {
726  return (__m128d)__builtin_ia32_selectpd_128((__mmask8)__U,
727  (__v2df)_mm_cvtepu64_pd(__A),
728  (__v2df)_mm_setzero_pd());
729 }
730 
731 static __inline__ __m256d __DEFAULT_FN_ATTRS
732 _mm256_cvtepu64_pd (__m256i __A) {
733  return (__m256d)__builtin_convertvector((__v4du)__A, __v4df);
734 }
735 
736 static __inline__ __m256d __DEFAULT_FN_ATTRS
737 _mm256_mask_cvtepu64_pd (__m256d __W, __mmask8 __U, __m256i __A) {
738  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
739  (__v4df)_mm256_cvtepu64_pd(__A),
740  (__v4df)__W);
741 }
742 
743 static __inline__ __m256d __DEFAULT_FN_ATTRS
744 _mm256_maskz_cvtepu64_pd (__mmask8 __U, __m256i __A) {
745  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__U,
746  (__v4df)_mm256_cvtepu64_pd(__A),
747  (__v4df)_mm256_setzero_pd());
748 }
749 
750 static __inline__ __m128 __DEFAULT_FN_ATTRS
751 _mm_cvtepu64_ps (__m128i __A) {
752  return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
753  (__v4sf) _mm_setzero_ps(),
754  (__mmask8) -1);
755 }
756 
757 static __inline__ __m128 __DEFAULT_FN_ATTRS
758 _mm_mask_cvtepu64_ps (__m128 __W, __mmask8 __U, __m128i __A) {
759  return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
760  (__v4sf) __W,
761  (__mmask8) __U);
762 }
763 
764 static __inline__ __m128 __DEFAULT_FN_ATTRS
765 _mm_maskz_cvtepu64_ps (__mmask8 __U, __m128i __A) {
766  return (__m128) __builtin_ia32_cvtuqq2ps128_mask ((__v2di) __A,
767  (__v4sf) _mm_setzero_ps(),
768  (__mmask8) __U);
769 }
770 
771 static __inline__ __m128 __DEFAULT_FN_ATTRS
772 _mm256_cvtepu64_ps (__m256i __A) {
773  return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
774  (__v4sf) _mm_setzero_ps(),
775  (__mmask8) -1);
776 }
777 
778 static __inline__ __m128 __DEFAULT_FN_ATTRS
779 _mm256_mask_cvtepu64_ps (__m128 __W, __mmask8 __U, __m256i __A) {
780  return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
781  (__v4sf) __W,
782  (__mmask8) __U);
783 }
784 
785 static __inline__ __m128 __DEFAULT_FN_ATTRS
786 _mm256_maskz_cvtepu64_ps (__mmask8 __U, __m256i __A) {
787  return (__m128) __builtin_ia32_cvtuqq2ps256_mask ((__v4di) __A,
788  (__v4sf) _mm_setzero_ps(),
789  (__mmask8) __U);
790 }
791 
792 #define _mm_range_pd(A, B, C) \
793  (__m128d)__builtin_ia32_rangepd128_mask((__v2df)(__m128d)(A), \
794  (__v2df)(__m128d)(B), (int)(C), \
795  (__v2df)_mm_setzero_pd(), \
796  (__mmask8)-1)
797 
798 #define _mm_mask_range_pd(W, U, A, B, C) \
799  (__m128d)__builtin_ia32_rangepd128_mask((__v2df)(__m128d)(A), \
800  (__v2df)(__m128d)(B), (int)(C), \
801  (__v2df)(__m128d)(W), \
802  (__mmask8)(U))
803 
804 #define _mm_maskz_range_pd(U, A, B, C) \
805  (__m128d)__builtin_ia32_rangepd128_mask((__v2df)(__m128d)(A), \
806  (__v2df)(__m128d)(B), (int)(C), \
807  (__v2df)_mm_setzero_pd(), \
808  (__mmask8)(U))
809 
810 #define _mm256_range_pd(A, B, C) \
811  (__m256d)__builtin_ia32_rangepd256_mask((__v4df)(__m256d)(A), \
812  (__v4df)(__m256d)(B), (int)(C), \
813  (__v4df)_mm256_setzero_pd(), \
814  (__mmask8)-1)
815 
816 #define _mm256_mask_range_pd(W, U, A, B, C) \
817  (__m256d)__builtin_ia32_rangepd256_mask((__v4df)(__m256d)(A), \
818  (__v4df)(__m256d)(B), (int)(C), \
819  (__v4df)(__m256d)(W), \
820  (__mmask8)(U))
821 
822 #define _mm256_maskz_range_pd(U, A, B, C) \
823  (__m256d)__builtin_ia32_rangepd256_mask((__v4df)(__m256d)(A), \
824  (__v4df)(__m256d)(B), (int)(C), \
825  (__v4df)_mm256_setzero_pd(), \
826  (__mmask8)(U))
827 
828 #define _mm_range_ps(A, B, C) \
829  (__m128)__builtin_ia32_rangeps128_mask((__v4sf)(__m128)(A), \
830  (__v4sf)(__m128)(B), (int)(C), \
831  (__v4sf)_mm_setzero_ps(), \
832  (__mmask8)-1)
833 
834 #define _mm_mask_range_ps(W, U, A, B, C) \
835  (__m128)__builtin_ia32_rangeps128_mask((__v4sf)(__m128)(A), \
836  (__v4sf)(__m128)(B), (int)(C), \
837  (__v4sf)(__m128)(W), (__mmask8)(U))
838 
839 #define _mm_maskz_range_ps(U, A, B, C) \
840  (__m128)__builtin_ia32_rangeps128_mask((__v4sf)(__m128)(A), \
841  (__v4sf)(__m128)(B), (int)(C), \
842  (__v4sf)_mm_setzero_ps(), \
843  (__mmask8)(U))
844 
845 #define _mm256_range_ps(A, B, C) \
846  (__m256)__builtin_ia32_rangeps256_mask((__v8sf)(__m256)(A), \
847  (__v8sf)(__m256)(B), (int)(C), \
848  (__v8sf)_mm256_setzero_ps(), \
849  (__mmask8)-1)
850 
851 #define _mm256_mask_range_ps(W, U, A, B, C) \
852  (__m256)__builtin_ia32_rangeps256_mask((__v8sf)(__m256)(A), \
853  (__v8sf)(__m256)(B), (int)(C), \
854  (__v8sf)(__m256)(W), (__mmask8)(U))
855 
856 #define _mm256_maskz_range_ps(U, A, B, C) \
857  (__m256)__builtin_ia32_rangeps256_mask((__v8sf)(__m256)(A), \
858  (__v8sf)(__m256)(B), (int)(C), \
859  (__v8sf)_mm256_setzero_ps(), \
860  (__mmask8)(U))
861 
862 #define _mm_reduce_pd(A, B) \
863  (__m128d)__builtin_ia32_reducepd128_mask((__v2df)(__m128d)(A), (int)(B), \
864  (__v2df)_mm_setzero_pd(), \
865  (__mmask8)-1)
866 
867 #define _mm_mask_reduce_pd(W, U, A, B) \
868  (__m128d)__builtin_ia32_reducepd128_mask((__v2df)(__m128d)(A), (int)(B), \
869  (__v2df)(__m128d)(W), \
870  (__mmask8)(U))
871 
872 #define _mm_maskz_reduce_pd(U, A, B) \
873  (__m128d)__builtin_ia32_reducepd128_mask((__v2df)(__m128d)(A), (int)(B), \
874  (__v2df)_mm_setzero_pd(), \
875  (__mmask8)(U))
876 
877 #define _mm256_reduce_pd(A, B) \
878  (__m256d)__builtin_ia32_reducepd256_mask((__v4df)(__m256d)(A), (int)(B), \
879  (__v4df)_mm256_setzero_pd(), \
880  (__mmask8)-1)
881 
882 #define _mm256_mask_reduce_pd(W, U, A, B) \
883  (__m256d)__builtin_ia32_reducepd256_mask((__v4df)(__m256d)(A), (int)(B), \
884  (__v4df)(__m256d)(W), \
885  (__mmask8)(U))
886 
887 #define _mm256_maskz_reduce_pd(U, A, B) \
888  (__m256d)__builtin_ia32_reducepd256_mask((__v4df)(__m256d)(A), (int)(B), \
889  (__v4df)_mm256_setzero_pd(), \
890  (__mmask8)(U))
891 
892 #define _mm_reduce_ps(A, B) \
893  (__m128)__builtin_ia32_reduceps128_mask((__v4sf)(__m128)(A), (int)(B), \
894  (__v4sf)_mm_setzero_ps(), \
895  (__mmask8)-1)
896 
897 #define _mm_mask_reduce_ps(W, U, A, B) \
898  (__m128)__builtin_ia32_reduceps128_mask((__v4sf)(__m128)(A), (int)(B), \
899  (__v4sf)(__m128)(W), \
900  (__mmask8)(U))
901 
902 #define _mm_maskz_reduce_ps(U, A, B) \
903  (__m128)__builtin_ia32_reduceps128_mask((__v4sf)(__m128)(A), (int)(B), \
904  (__v4sf)_mm_setzero_ps(), \
905  (__mmask8)(U))
906 
907 #define _mm256_reduce_ps(A, B) \
908  (__m256)__builtin_ia32_reduceps256_mask((__v8sf)(__m256)(A), (int)(B), \
909  (__v8sf)_mm256_setzero_ps(), \
910  (__mmask8)-1)
911 
912 #define _mm256_mask_reduce_ps(W, U, A, B) \
913  (__m256)__builtin_ia32_reduceps256_mask((__v8sf)(__m256)(A), (int)(B), \
914  (__v8sf)(__m256)(W), \
915  (__mmask8)(U))
916 
917 #define _mm256_maskz_reduce_ps(U, A, B) \
918  (__m256)__builtin_ia32_reduceps256_mask((__v8sf)(__m256)(A), (int)(B), \
919  (__v8sf)_mm256_setzero_ps(), \
920  (__mmask8)(U))
921 
922 static __inline__ __mmask8 __DEFAULT_FN_ATTRS
923 _mm_movepi32_mask (__m128i __A)
924 {
925  return (__mmask8) __builtin_ia32_cvtd2mask128 ((__v4si) __A);
926 }
927 
928 static __inline__ __mmask8 __DEFAULT_FN_ATTRS
929 _mm256_movepi32_mask (__m256i __A)
930 {
931  return (__mmask8) __builtin_ia32_cvtd2mask256 ((__v8si) __A);
932 }
933 
934 static __inline__ __m128i __DEFAULT_FN_ATTRS
936 {
937  return (__m128i) __builtin_ia32_cvtmask2d128 (__A);
938 }
939 
940 static __inline__ __m256i __DEFAULT_FN_ATTRS
942 {
943  return (__m256i) __builtin_ia32_cvtmask2d256 (__A);
944 }
945 
946 static __inline__ __m128i __DEFAULT_FN_ATTRS
948 {
949  return (__m128i) __builtin_ia32_cvtmask2q128 (__A);
950 }
951 
952 static __inline__ __m256i __DEFAULT_FN_ATTRS
954 {
955  return (__m256i) __builtin_ia32_cvtmask2q256 (__A);
956 }
957 
958 static __inline__ __mmask8 __DEFAULT_FN_ATTRS
959 _mm_movepi64_mask (__m128i __A)
960 {
961  return (__mmask8) __builtin_ia32_cvtq2mask128 ((__v2di) __A);
962 }
963 
964 static __inline__ __mmask8 __DEFAULT_FN_ATTRS
965 _mm256_movepi64_mask (__m256i __A)
966 {
967  return (__mmask8) __builtin_ia32_cvtq2mask256 ((__v4di) __A);
968 }
969 
970 static __inline__ __m256 __DEFAULT_FN_ATTRS
972 {
973  return (__m256)__builtin_shufflevector((__v4sf)__A, (__v4sf)__A,
974  0, 1, 0, 1, 0, 1, 0, 1);
975 }
976 
977 static __inline__ __m256 __DEFAULT_FN_ATTRS
978 _mm256_mask_broadcast_f32x2 (__m256 __O, __mmask8 __M, __m128 __A)
979 {
980  return (__m256)__builtin_ia32_selectps_256((__mmask8)__M,
981  (__v8sf)_mm256_broadcast_f32x2(__A),
982  (__v8sf)__O);
983 }
984 
985 static __inline__ __m256 __DEFAULT_FN_ATTRS
987 {
988  return (__m256)__builtin_ia32_selectps_256((__mmask8)__M,
989  (__v8sf)_mm256_broadcast_f32x2(__A),
990  (__v8sf)_mm256_setzero_ps());
991 }
992 
993 static __inline__ __m256d __DEFAULT_FN_ATTRS
995 {
996  return (__m256d)__builtin_shufflevector((__v2df)__A, (__v2df)__A,
997  0, 1, 0, 1);
998 }
999 
1000 static __inline__ __m256d __DEFAULT_FN_ATTRS
1001 _mm256_mask_broadcast_f64x2(__m256d __O, __mmask8 __M, __m128d __A)
1002 {
1003  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__M,
1004  (__v4df)_mm256_broadcast_f64x2(__A),
1005  (__v4df)__O);
1006 }
1007 
1008 static __inline__ __m256d __DEFAULT_FN_ATTRS
1010 {
1011  return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__M,
1012  (__v4df)_mm256_broadcast_f64x2(__A),
1013  (__v4df)_mm256_setzero_pd());
1014 }
1015 
1016 static __inline__ __m128i __DEFAULT_FN_ATTRS
1017 _mm_broadcast_i32x2 (__m128i __A)
1018 {
1019  return (__m128i)__builtin_shufflevector((__v4si)__A, (__v4si)__A,
1020  0, 1, 0, 1);
1021 }
1022 
1023 static __inline__ __m128i __DEFAULT_FN_ATTRS
1024 _mm_mask_broadcast_i32x2 (__m128i __O, __mmask8 __M, __m128i __A)
1025 {
1026  return (__m128i)__builtin_ia32_selectd_128((__mmask8)__M,
1027  (__v4si)_mm_broadcast_i32x2(__A),
1028  (__v4si)__O);
1029 }
1030 
1031 static __inline__ __m128i __DEFAULT_FN_ATTRS
1033 {
1034  return (__m128i)__builtin_ia32_selectd_128((__mmask8)__M,
1035  (__v4si)_mm_broadcast_i32x2(__A),
1036  (__v4si)_mm_setzero_si128());
1037 }
1038 
1039 static __inline__ __m256i __DEFAULT_FN_ATTRS
1041 {
1042  return (__m256i)__builtin_shufflevector((__v4si)__A, (__v4si)__A,
1043  0, 1, 0, 1, 0, 1, 0, 1);
1044 }
1045 
1046 static __inline__ __m256i __DEFAULT_FN_ATTRS
1047 _mm256_mask_broadcast_i32x2 (__m256i __O, __mmask8 __M, __m128i __A)
1048 {
1049  return (__m256i)__builtin_ia32_selectd_256((__mmask8)__M,
1050  (__v8si)_mm256_broadcast_i32x2(__A),
1051  (__v8si)__O);
1052 }
1053 
1054 static __inline__ __m256i __DEFAULT_FN_ATTRS
1056 {
1057  return (__m256i)__builtin_ia32_selectd_256((__mmask8)__M,
1058  (__v8si)_mm256_broadcast_i32x2(__A),
1059  (__v8si)_mm256_setzero_si256());
1060 }
1061 
1062 static __inline__ __m256i __DEFAULT_FN_ATTRS
1064 {
1065  return (__m256i)__builtin_shufflevector((__v2di)__A, (__v2di)__A,
1066  0, 1, 0, 1);
1067 }
1068 
1069 static __inline__ __m256i __DEFAULT_FN_ATTRS
1070 _mm256_mask_broadcast_i64x2(__m256i __O, __mmask8 __M, __m128i __A)
1071 {
1072  return (__m256i)__builtin_ia32_selectq_256((__mmask8)__M,
1073  (__v4di)_mm256_broadcast_i64x2(__A),
1074  (__v4di)__O);
1075 }
1076 
1077 static __inline__ __m256i __DEFAULT_FN_ATTRS
1079 {
1080  return (__m256i)__builtin_ia32_selectq_256((__mmask8)__M,
1081  (__v4di)_mm256_broadcast_i64x2(__A),
1082  (__v4di)_mm256_setzero_si256());
1083 }
1084 
1085 #define _mm256_extractf64x2_pd(A, imm) \
1086  (__m128d)__builtin_ia32_extractf64x2_256_mask((__v4df)(__m256d)(A), \
1087  (int)(imm), \
1088  (__v2df)_mm_undefined_pd(), \
1089  (__mmask8)-1)
1090 
1091 #define _mm256_mask_extractf64x2_pd(W, U, A, imm) \
1092  (__m128d)__builtin_ia32_extractf64x2_256_mask((__v4df)(__m256d)(A), \
1093  (int)(imm), \
1094  (__v2df)(__m128d)(W), \
1095  (__mmask8)(U))
1096 
1097 #define _mm256_maskz_extractf64x2_pd(U, A, imm) \
1098  (__m128d)__builtin_ia32_extractf64x2_256_mask((__v4df)(__m256d)(A), \
1099  (int)(imm), \
1100  (__v2df)_mm_setzero_pd(), \
1101  (__mmask8)(U))
1102 
1103 #define _mm256_extracti64x2_epi64(A, imm) \
1104  (__m128i)__builtin_ia32_extracti64x2_256_mask((__v4di)(__m256i)(A), \
1105  (int)(imm), \
1106  (__v2di)_mm_undefined_si128(), \
1107  (__mmask8)-1)
1108 
1109 #define _mm256_mask_extracti64x2_epi64(W, U, A, imm) \
1110  (__m128i)__builtin_ia32_extracti64x2_256_mask((__v4di)(__m256i)(A), \
1111  (int)(imm), \
1112  (__v2di)(__m128i)(W), \
1113  (__mmask8)(U))
1114 
1115 #define _mm256_maskz_extracti64x2_epi64(U, A, imm) \
1116  (__m128i)__builtin_ia32_extracti64x2_256_mask((__v4di)(__m256i)(A), \
1117  (int)(imm), \
1118  (__v2di)_mm_setzero_si128(), \
1119  (__mmask8)(U))
1120 
1121 #define _mm256_insertf64x2(A, B, imm) \
1122  (__m256d)__builtin_ia32_insertf64x2_256((__v4df)(__m256d)(A), \
1123  (__v2df)(__m128d)(B), (int)(imm))
1124 
1125 #define _mm256_mask_insertf64x2(W, U, A, B, imm) \
1126  (__m256d)__builtin_ia32_selectpd_256((__mmask8)(U), \
1127  (__v4df)_mm256_insertf64x2((A), (B), (imm)), \
1128  (__v4df)(__m256d)(W))
1129 
1130 #define _mm256_maskz_insertf64x2(U, A, B, imm) \
1131  (__m256d)__builtin_ia32_selectpd_256((__mmask8)(U), \
1132  (__v4df)_mm256_insertf64x2((A), (B), (imm)), \
1133  (__v4df)_mm256_setzero_pd())
1134 
1135 #define _mm256_inserti64x2(A, B, imm) \
1136  (__m256i)__builtin_ia32_inserti64x2_256((__v4di)(__m256i)(A), \
1137  (__v2di)(__m128i)(B), (int)(imm))
1138 
1139 #define _mm256_mask_inserti64x2(W, U, A, B, imm) \
1140  (__m256i)__builtin_ia32_selectq_256((__mmask8)(U), \
1141  (__v4di)_mm256_inserti64x2((A), (B), (imm)), \
1142  (__v4di)(__m256i)(W))
1143 
1144 #define _mm256_maskz_inserti64x2(U, A, B, imm) \
1145  (__m256i)__builtin_ia32_selectq_256((__mmask8)(U), \
1146  (__v4di)_mm256_inserti64x2((A), (B), (imm)), \
1147  (__v4di)_mm256_setzero_si256())
1148 
1149 #define _mm_mask_fpclass_pd_mask(U, A, imm) \
1150  (__mmask8)__builtin_ia32_fpclasspd128_mask((__v2df)(__m128d)(A), (int)(imm), \
1151  (__mmask8)(U))
1152 
1153 #define _mm_fpclass_pd_mask(A, imm) \
1154  (__mmask8)__builtin_ia32_fpclasspd128_mask((__v2df)(__m128d)(A), (int)(imm), \
1155  (__mmask8)-1)
1156 
1157 #define _mm256_mask_fpclass_pd_mask(U, A, imm) \
1158  (__mmask8)__builtin_ia32_fpclasspd256_mask((__v4df)(__m256d)(A), (int)(imm), \
1159  (__mmask8)(U))
1160 
1161 #define _mm256_fpclass_pd_mask(A, imm) \
1162  (__mmask8)__builtin_ia32_fpclasspd256_mask((__v4df)(__m256d)(A), (int)(imm), \
1163  (__mmask8)-1)
1164 
1165 #define _mm_mask_fpclass_ps_mask(U, A, imm) \
1166  (__mmask8)__builtin_ia32_fpclassps128_mask((__v4sf)(__m128)(A), (int)(imm), \
1167  (__mmask8)(U))
1168 
1169 #define _mm_fpclass_ps_mask(A, imm) \
1170  (__mmask8)__builtin_ia32_fpclassps128_mask((__v4sf)(__m128)(A), (int)(imm), \
1171  (__mmask8)-1)
1172 
1173 #define _mm256_mask_fpclass_ps_mask(U, A, imm) \
1174  (__mmask8)__builtin_ia32_fpclassps256_mask((__v8sf)(__m256)(A), (int)(imm), \
1175  (__mmask8)(U))
1176 
1177 #define _mm256_fpclass_ps_mask(A, imm) \
1178  (__mmask8)__builtin_ia32_fpclassps256_mask((__v8sf)(__m256)(A), (int)(imm), \
1179  (__mmask8)-1)
1180 
1181 #undef __DEFAULT_FN_ATTRS
1182 
1183 #endif
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_cvtepi64_ps(__m128i __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_mask_xor_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvttpd_epi64(__m256i __W, __mmask8 __U, __m256d __A)
static __inline __m256 __DEFAULT_FN_ATTRS _mm256_setzero_ps(void)
Constructs a 256-bit floating-point vector of [8 x float] with all vector elements initialized to zer...
Definition: avxintrin.h:4277
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_movepi64_mask(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvttps_epu64(__mmask8 __U, __m128 __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvttps_epi64(__m128 __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_broadcast_f64x2(__m128d __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_mask_cvtepu64_ps(__m128 __W, __mmask8 __U, __m128i __A)
unsigned char __mmask8
Definition: avx512fintrin.h:47
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm256_mask_cvtepi64_ps(__m128 __W, __mmask8 __U, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvttps_epu64(__m128 __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtpd_epu64(__m128i __W, __mmask8 __U, __m128d __A)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_cvtepi64_pd(__m128i __A)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_maskz_xor_pd(__mmask8 __U, __m128d __A, __m128d __B)
static __inline __m256 __DEFAULT_FN_ATTRS _mm256_or_ps(__m256 __a, __m256 __b)
Performs a bitwise OR of two 256-bit vectors of [8 x float].
Definition: avxintrin.h:625
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_broadcast_i32x2(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtpd_epi64(__mmask8 __U, __m128d __A)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_mask_xor_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_maskz_or_ps(__mmask8 __U, __m128 __A, __m128 __B)
static __inline __m256 __DEFAULT_FN_ATTRS _mm256_and_ps(__m256 __a, __m256 __b)
Performs a bitwise AND of two 256-bit vectors of [8 x float].
Definition: avxintrin.h:547
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_maskz_xor_ps(__mmask8 __U, __m128 __A, __m128 __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvttpd_epi64(__m128d __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_mask_or_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvttpd_epu64(__m128d __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_mask_xor_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvtpd_epu64(__m256d __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_mask_or_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_maskz_andnot_ps(__mmask8 __U, __m128 __A, __m128 __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_broadcast_i64x2(__m256i __O, __mmask8 __M, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvttps_epi64(__m256i __W, __mmask8 __U, __m128 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvttpd_epu64(__mmask8 __U, __m256d __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtpd_epu64(__m128d __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm256_cvtepi64_ps(__m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtps_epu64(__m128i __W, __mmask8 __U, __m128 __A)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_mask_or_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm_movepi32_mask(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_broadcast_i32x2(__mmask8 __M, __m128i __A)
static __inline __m256d __DEFAULT_FN_ATTRS _mm256_and_pd(__m256d __a, __m256d __b)
Performs a bitwise AND of two 256-bit vectors of [4 x double].
Definition: avxintrin.h:529
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_maskz_cvtepi64_pd(__mmask8 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvttpd_epi64(__m128i __W, __mmask8 __U, __m128d __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_movm_epi32(__mmask8 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvttpd_epi64(__mmask8 __U, __m256d __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvtpd_epi64(__m256d __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_broadcast_i32x2(__m256i __O, __mmask8 __M, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvtps_epi64(__m256i __W, __mmask8 __U, __m128 __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_mask_cvtepi64_ps(__m128 __W, __mmask8 __U, __m128i __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_mask_cvtepi64_pd(__m256d __W, __mmask8 __U, __m256i __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm256_maskz_cvtepi64_ps(__mmask8 __U, __m256i __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_maskz_or_pd(__mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_mask_andnot_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_mask_broadcast_f64x2(__m256d __O, __mmask8 __M, __m128d __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm256_maskz_cvtepu64_ps(__mmask8 __U, __m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvtps_epi64(__mmask8 __U, __m128 __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_movm_epi32(__mmask8 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mullo_epi64(__m256i __A, __m256i __B)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_maskz_and_ps(__mmask8 __U, __m128 __A, __m128 __B)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm256_cvtepu64_ps(__m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvttps_epu64(__mmask8 __U, __m128 __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_mask_or_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvttpd_epu64(__m256i __W, __mmask8 __U, __m256d __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_maskz_cvtepu64_pd(__mmask8 __U, __m256i __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_mask_xor_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtps_epu64(__m128 __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_setzero_ps(void)
Constructs a 128-bit floating-point vector of [4 x float] initialized to zero.
Definition: xmmintrin.h:1915
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_mask_andnot_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_maskz_cvtepu64_pd(__mmask8 __U, __m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_setzero_pd(void)
Constructs a 128-bit floating-point vector of [2 x double] initialized to zero.
Definition: emmintrin.h:1880
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtps_epi64(__m128i __W, __mmask8 __U, __m128 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_broadcast_i64x2(__mmask8 __M, __m128i __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm256_mask_cvtepu64_ps(__m128 __W, __mmask8 __U, __m256i __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_xor_ps(__m128 __a, __m128 __b)
Performs a bitwise exclusive OR of two 128-bit vectors of [4 x float].
Definition: xmmintrin.h:475
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtpd_epu64(__mmask8 __U, __m128d __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_cvtepu64_pd(__m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvtpd_epi64(__mmask8 __U, __m256d __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvttps_epi64(__mmask8 __U, __m128 __A)
#define __DEFAULT_FN_ATTRS
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_cvtepi64_pd(__m256i __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_maskz_xor_pd(__mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_mask_cvtepi64_pd(__m128d __W, __mmask8 __U, __m128i __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvttps_epu64(__m256i __W, __mmask8 __U, __m128 __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_maskz_broadcast_f64x2(__mmask8 __M, __m128d __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvtpd_epu64(__mmask8 __U, __m256d __A)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_or_pd(__m128d __a, __m128d __b)
Performs a bitwise OR of two 128-bit vectors of [2 x double].
Definition: emmintrin.h:400
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_mask_and_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvttpd_epu64(__m128i __W, __mmask8 __U, __m128d __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtps_epi64(__m128 __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_maskz_cvtepi64_ps(__mmask8 __U, __m128i __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_broadcast_f32x2(__m128 __A)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_and_pd(__m128d __a, __m128d __b)
Performs a bitwise AND of two 128-bit vectors of [2 x double].
Definition: emmintrin.h:361
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_broadcast_i32x2(__mmask8 __M, __m128i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_broadcast_i64x2(__m128i __A)
static __inline __m256d __DEFAULT_FN_ATTRS _mm256_andnot_pd(__m256d __a, __m256d __b)
Performs a bitwise AND of two 256-bit vectors of [4 x double], using the one&#39;s complement of the valu...
Definition: avxintrin.h:568
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtps_epu64(__mmask8 __U, __m128 __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_maskz_cvtepu64_ps(__mmask8 __U, __m128i __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_andnot_ps(__m128 __a, __m128 __b)
Performs a bitwise AND of two 128-bit vectors of [4 x float], using the one&#39;s complement of the value...
Definition: xmmintrin.h:438
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvttpd_epi64(__mmask8 __U, __m128d __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_maskz_and_ps(__mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_movm_epi64(__mmask8 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvtps_epu64(__mmask8 __U, __m128 __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_mask_broadcast_f32x2(__m256 __O, __mmask8 __M, __m128 __A)
static __inline __m256 __DEFAULT_FN_ATTRS _mm256_xor_ps(__m256 __a, __m256 __b)
Performs a bitwise XOR of two 256-bit vectors of [8 x float].
Definition: avxintrin.h:661
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_maskz_or_pd(__mmask8 __U, __m128d __A, __m128d __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvttps_epi64(__m128 __A)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_xor_pd(__m128d __a, __m128d __b)
Performs a bitwise XOR of two 128-bit vectors of [2 x double].
Definition: emmintrin.h:418
static __inline __m256 __DEFAULT_FN_ATTRS _mm256_andnot_ps(__m256 __a, __m256 __b)
Performs a bitwise AND of two 256-bit vectors of [8 x float], using the one&#39;s complement of the value...
Definition: avxintrin.h:589
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_maskz_andnot_pd(__mmask8 __U, __m128d __A, __m128d __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_setzero_si128(void)
Creates a 128-bit integer vector initialized to zero.
Definition: emmintrin.h:3953
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_andnot_pd(__m128d __a, __m128d __b)
Performs a bitwise AND of two 128-bit vectors of [2 x double], using the one&#39;s complement of the valu...
Definition: emmintrin.h:382
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mullo_epi64(__m128i __A, __m128i __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_mask_and_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_cvtepu64_pd(__m128i __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_cvtepu64_ps(__m128i __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_maskz_and_pd(__mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvttpd_epi64(__m256d __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvttps_epu64(__m128 __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_mask_and_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_maskz_and_pd(__mmask8 __U, __m128d __A, __m128d __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_mask_cvtepu64_pd(__m256d __W, __mmask8 __U, __m256i __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_mask_andnot_ps(__m128 __W, __mmask8 __U, __m128 __A, __m128 __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvttps_epu64(__m128i __W, __mmask8 __U, __m128 __A)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm256_movepi32_mask(__m256i __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvtps_epi64(__m128 __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_maskz_broadcast_f32x2(__mmask8 __M, __m128 __A)
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_or_ps(__m128 __a, __m128 __b)
Performs a bitwise OR of two 128-bit vectors of [4 x float].
Definition: xmmintrin.h:456
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvtpd_epu64(__m256i __W, __mmask8 __U, __m256d __A)
static __inline __m256d __DEFAULT_FN_ATTRS _mm256_xor_pd(__m256d __a, __m256d __b)
Performs a bitwise XOR of two 256-bit vectors of [4 x double].
Definition: avxintrin.h:643
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvtpd_epi64(__m256i __W, __mmask8 __U, __m256d __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_maskz_andnot_ps(__mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __m128d __DEFAULT_FN_ATTRS _mm_mask_cvtepu64_pd(__m128d __W, __mmask8 __U, __m128i __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_mask_and_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvttps_epi64(__m128i __W, __mmask8 __U, __m128 __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_cvtpd_epi64(__m128d __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_mask_cvtps_epu64(__m256i __W, __mmask8 __U, __m128 __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_maskz_cvtepi64_pd(__mmask8 __U, __m256i __A)
static __inline __m256i __DEFAULT_FN_ATTRS _mm256_setzero_si256(void)
Constructs a 256-bit integer vector initialized to zero.
Definition: avxintrin.h:4290
static __inline__ __m128 __DEFAULT_FN_ATTRS _mm_and_ps(__m128 __a, __m128 __b)
Performs a bitwise AND of two 128-bit vectors of [4 x float].
Definition: xmmintrin.h:416
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_maskz_xor_ps(__mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __mmask8 __DEFAULT_FN_ATTRS _mm256_movepi64_mask(__m256i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_movm_epi64(__mmask8 __A)
static __inline__ __m256 __DEFAULT_FN_ATTRS _mm256_maskz_or_ps(__mmask8 __U, __m256 __A, __m256 __B)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_broadcast_i32x2(__m128i __A)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_broadcast_i32x2(__m128i __O, __mmask8 __M, __m128i __A)
static __inline __m256d __DEFAULT_FN_ATTRS _mm256_setzero_pd(void)
Constructs a 256-bit floating-point vector of [4 x double] with all vector elements initialized to ze...
Definition: avxintrin.h:4263
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvtps_epu64(__m128 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_cvttpd_epu64(__m256d __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_cvttps_epi64(__mmask8 __U, __m128 __A)
static __inline__ __m256i __DEFAULT_FN_ATTRS _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvttpd_epu64(__mmask8 __U, __m128d __A)
static __inline __m256d __DEFAULT_FN_ATTRS _mm256_or_pd(__m256d __a, __m256d __b)
Performs a bitwise OR of two 256-bit vectors of [4 x double].
Definition: avxintrin.h:607
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_mask_cvtpd_epi64(__m128i __W, __mmask8 __U, __m128d __A)
static __inline__ __m256d __DEFAULT_FN_ATTRS _mm256_maskz_andnot_pd(__mmask8 __U, __m256d __A, __m256d __B)
static __inline__ __m128i __DEFAULT_FN_ATTRS _mm_maskz_cvtps_epi64(__mmask8 __U, __m128 __A)