Lines Matching refs:vus

9 vector unsigned short vus = { 1, 2, 3, 4, 5, 6, 7, 8 };
79 res_vus = vec_add(vus, vus); // CHECK: add <8 x i16>
80 res_vus = vec_add(vbs, vus); // CHECK: add <8 x i16>
81 res_vus = vec_add(vus, vbs); // CHECK: add <8 x i16>
98 res_vus = vec_vadduhm(vus, vus); // CHECK: add <8 x i16>
99 res_vus = vec_vadduhm(vbs, vus); // CHECK: add <8 x i16>
100 res_vus = vec_vadduhm(vus, vbs); // CHECK: add <8 x i16>
123 res_vus = vec_adds(vus, vus); // CHECK: @llvm.ppc.altivec.vadduhs
124 res_vus = vec_adds(vbs, vus); // CHECK: @llvm.ppc.altivec.vadduhs
125 res_vus = vec_adds(vus, vbs); // CHECK: @llvm.ppc.altivec.vadduhs
141 res_vus = vec_vadduhs(vus, vus); // CHECK: @llvm.ppc.altivec.vadduhs
142 res_vus = vec_vadduhs(vbs, vus); // CHECK: @llvm.ppc.altivec.vadduhs
143 res_vus = vec_vadduhs(vus, vbs); // CHECK: @llvm.ppc.altivec.vadduhs
162 res_vus = vec_and(vus, vus); // CHECK: and <8 x i16>
163 res_vus = vec_and(vbs, vus); // CHECK: and <8 x i16>
164 res_vus = vec_and(vus, vbs); // CHECK: and <8 x i16>
183 res_vus = vec_vand(vus, vus); // CHECK: and <8 x i16>
184 res_vus = vec_vand(vbs, vus); // CHECK: and <8 x i16>
185 res_vus = vec_vand(vus, vbs); // CHECK: and <8 x i16>
226 res_vus = vec_andc(vus, vus); // CHECK: xor <8 x i16>
229 res_vus = vec_andc(vbs, vus); // CHECK: xor <8 x i16>
232 res_vus = vec_andc(vus, vbs); // CHECK: xor <8 x i16>
295 res_vus = vec_vandc(vus, vus); // CHECK: xor <8 x i16>
298 res_vus = vec_vandc(vbs, vus); // CHECK: xor <8 x i16>
301 res_vus = vec_vandc(vus, vbs); // CHECK: xor <8 x i16>
342 res_vus = vec_avg(vus, vus); // CHECK: @llvm.ppc.altivec.vavguh
348 res_vus = vec_vavguh(vus, vus); // CHECK: @llvm.ppc.altivec.vavguh
364 res_vbs = vec_cmpeq(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpequh
381 res_vbs = vec_cmpgt(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh
388 res_vbs = vec_vcmpgtuh(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh
403 res_vbs = vec_cmplt(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh
456 res_vus = vec_ld(0, &vus); // CHECK: @llvm.ppc.altivec.lvx
474 res_vus = vec_lvx(0, &vus); // CHECK: @llvm.ppc.altivec.lvx
490 res_vus = vec_lde(0, &vus); // CHECK: @llvm.ppc.altivec.lvehx
497 res_vus = vec_lvehx(0, &vus); // CHECK: @llvm.ppc.altivec.lvehx
510 res_vus = vec_ldl(0, &vus); // CHECK: @llvm.ppc.altivec.lvxl
528 res_vus = vec_lvxl(0, &vus); // CHECK: @llvm.ppc.altivec.lvxl
568 res_vus = vec_max(vus, vus); // CHECK: @llvm.ppc.altivec.vmaxuh
569 res_vus = vec_max(vbs, vus); // CHECK: @llvm.ppc.altivec.vmaxuh
570 res_vus = vec_max(vus, vbs); // CHECK: @llvm.ppc.altivec.vmaxuh
587 res_vus = vec_vmaxuh(vus, vus); // CHECK: @llvm.ppc.altivec.vmaxuh
588 res_vus = vec_vmaxuh(vbs, vus); // CHECK: @llvm.ppc.altivec.vmaxuh
589 res_vus = vec_vmaxuh(vus, vbs); // CHECK: @llvm.ppc.altivec.vmaxuh
604 res_vus = vec_mergeh(vus, vus); // CHECK: @llvm.ppc.altivec.vperm
615 res_vus = vec_vmrghh(vus, vus); // CHECK: @llvm.ppc.altivec.vperm
628 res_vus = vec_mergel(vus, vus); // CHECK: @llvm.ppc.altivec.vperm
639 res_vus = vec_vmrglh(vus, vus); // CHECK: @llvm.ppc.altivec.vperm
647 vus = vec_mfvscr(); // CHECK: @llvm.ppc.altivec.mfvscr
659 res_vus = vec_min(vus, vus); // CHECK: @llvm.ppc.altivec.vminuh
660 res_vus = vec_min(vbs, vus); // CHECK: @llvm.ppc.altivec.vminuh
661 res_vus = vec_min(vus, vbs); // CHECK: @llvm.ppc.altivec.vminuh
678 res_vus = vec_vminuh(vus, vus); // CHECK: @llvm.ppc.altivec.vminuh
679 res_vus = vec_vminuh(vbs, vus); // CHECK: @llvm.ppc.altivec.vminuh
680 res_vus = vec_vminuh(vus, vbs); // CHECK: @llvm.ppc.altivec.vminuh
690 res_vus = vec_mladd(vus, vus, vus); // CHECK: mul <8 x i16>
693 res_vs = vec_mladd(vus, vs, vs); // CHECK: mul <8 x i16>
696 res_vs = vec_mladd(vs, vus, vus); // CHECK: mul <8 x i16>
710 res_vui = vec_msum(vus, vus, vui); // CHECK: @llvm.ppc.altivec.vmsumuhm
714 res_vui = vec_vmsumuhm(vus, vus, vui); // CHECK: @llvm.ppc.altivec.vmsumuhm
718 res_vui = vec_msums(vus, vus, vui); // CHECK: @llvm.ppc.altivec.vmsumuhs
720 res_vui = vec_vmsumuhs(vus, vus, vui); // CHECK: @llvm.ppc.altivec.vmsumuhs
727 vec_mtvscr(vus); // CHECK: @llvm.ppc.altivec.mtvscr
738 res_vui = vec_mule(vus, vus); // CHECK: @llvm.ppc.altivec.vmuleuh
742 res_vui = vec_vmuleuh(vus, vus); // CHECK: @llvm.ppc.altivec.vmuleuh
748 res_vui = vec_mulo(vus, vus); // CHECK: @llvm.ppc.altivec.vmulouh
752 res_vui = vec_vmulouh(vus, vus); // CHECK: @llvm.ppc.altivec.vmulouh
771 res_vus = vec_nor(vus, vus); // CHECK: or <8 x i16>
801 res_vus = vec_vnor(vus, vus); // CHECK: or <8 x i16>
830 res_vus = vec_or(vus, vus); // CHECK: or <8 x i16>
831 res_vus = vec_or(vbs, vus); // CHECK: or <8 x i16>
832 res_vus = vec_or(vus, vbs); // CHECK: or <8 x i16>
854 res_vus = vec_vor(vus, vus); // CHECK: or <8 x i16>
855 res_vus = vec_vor(vbs, vus); // CHECK: or <8 x i16>
856 res_vus = vec_vor(vus, vbs); // CHECK: or <8 x i16>
871 res_vuc = vec_pack(vus, vus); // CHECK: @llvm.ppc.altivec.vperm
877 res_vuc = vec_vpkuhum(vus, vus); // CHECK: @llvm.ppc.altivec.vperm
889 res_vuc = vec_packs(vus, vus); // CHECK: @llvm.ppc.altivec.vpkuhus
893 res_vuc = vec_vpkuhus(vus, vus); // CHECK: @llvm.ppc.altivec.vpkuhus
899 res_vuc = vec_packsu(vus, vus); // CHECK: @llvm.ppc.altivec.vpkuhus
903 res_vuc = vec_vpkshus(vus, vus); // CHECK: @llvm.ppc.altivec.vpkuhus
912 res_vus = vec_perm(vus, vus, vuc); // CHECK: @llvm.ppc.altivec.vperm
923 res_vus = vec_vperm(vus, vus, vuc); // CHECK: @llvm.ppc.altivec.vperm
938 res_vs = vec_rl(vs, vus); // CHECK: @llvm.ppc.altivec.vrlh
939 res_vus = vec_rl(vus, vus); // CHECK: @llvm.ppc.altivec.vrlh
944 res_vs = vec_vrlh(vs, vus); // CHECK: @llvm.ppc.altivec.vrlh
945 res_vus = vec_vrlh(vus, vus); // CHECK: @llvm.ppc.altivec.vrlh
988 res_vs = vec_sel(vs, vs, vus); // CHECK: xor <8 x i16>
998 res_vus = vec_sel(vus, vus, vus); // CHECK: xor <8 x i16>
1003 res_vus = vec_sel(vus, vus, vbs); // CHECK: xor <8 x i16>
1008 res_vbs = vec_sel(vbs, vbs, vus); // CHECK: xor <8 x i16>
1088 res_vs = vec_vsel(vs, vs, vus); // CHECK: xor <8 x i16>
1098 res_vus = vec_vsel(vus, vus, vus); // CHECK: xor <8 x i16>
1103 res_vus = vec_vsel(vus, vus, vbs); // CHECK: xor <8 x i16>
1108 res_vbs = vec_vsel(vbs, vbs, vus); // CHECK: xor <8 x i16>
1161 res_vs = vec_sl(vs, vus); // CHECK: shl <8 x i16>
1162 res_vus = vec_sl(vus, vus); // CHECK: shl <8 x i16>
1167 res_vs = vec_vslh(vs, vus); // CHECK: shl <8 x i16>
1168 res_vus = vec_vslh(vus, vus); // CHECK: shl <8 x i16>
1176 res_vus = vec_sld(vus, vus, 0); // CHECK: @llvm.ppc.altivec.vperm
1184 res_vus = vec_vsldoi(vus, vus, 0); // CHECK: @llvm.ppc.altivec.vperm
1192 res_vsc = vec_sll(vsc, vus); // CHECK: @llvm.ppc.altivec.vsl
1195 res_vuc = vec_sll(vuc, vus); // CHECK: @llvm.ppc.altivec.vsl
1198 res_vbc = vec_sll(vbc, vus); // CHECK: @llvm.ppc.altivec.vsl
1201 res_vs = vec_sll(vs, vus); // CHECK: @llvm.ppc.altivec.vsl
1203 res_vus = vec_sll(vus, vuc); // CHECK: @llvm.ppc.altivec.vsl
1204 res_vus = vec_sll(vus, vus); // CHECK: @llvm.ppc.altivec.vsl
1205 res_vus = vec_sll(vus, vui); // CHECK: @llvm.ppc.altivec.vsl
1207 res_vbs = vec_sll(vbs, vus); // CHECK: @llvm.ppc.altivec.vsl
1210 res_vp = vec_sll(vp, vus); // CHECK: @llvm.ppc.altivec.vsl
1213 res_vi = vec_sll(vi, vus); // CHECK: @llvm.ppc.altivec.vsl
1216 res_vui = vec_sll(vui, vus); // CHECK: @llvm.ppc.altivec.vsl
1219 res_vbi = vec_sll(vbi, vus); // CHECK: @llvm.ppc.altivec.vsl
1222 res_vsc = vec_vsl(vsc, vus); // CHECK: @llvm.ppc.altivec.vsl
1225 res_vuc = vec_vsl(vuc, vus); // CHECK: @llvm.ppc.altivec.vsl
1228 res_vbc = vec_vsl(vbc, vus); // CHECK: @llvm.ppc.altivec.vsl
1231 res_vs = vec_vsl(vs, vus); // CHECK: @llvm.ppc.altivec.vsl
1233 res_vus = vec_vsl(vus, vuc); // CHECK: @llvm.ppc.altivec.vsl
1234 res_vus = vec_vsl(vus, vus); // CHECK: @llvm.ppc.altivec.vsl
1235 res_vus = vec_vsl(vus, vui); // CHECK: @llvm.ppc.altivec.vsl
1237 res_vbs = vec_vsl(vbs, vus); // CHECK: @llvm.ppc.altivec.vsl
1240 res_vp = vec_vsl(vp, vus); // CHECK: @llvm.ppc.altivec.vsl
1243 res_vi = vec_vsl(vi, vus); // CHECK: @llvm.ppc.altivec.vsl
1246 res_vui = vec_vsl(vui, vus); // CHECK: @llvm.ppc.altivec.vsl
1249 res_vbi = vec_vsl(vbi, vus); // CHECK: @llvm.ppc.altivec.vsl
1259 res_vus = vec_slo(vus, vsc); // CHECK: @llvm.ppc.altivec.vslo
1260 res_vus = vec_slo(vus, vuc); // CHECK: @llvm.ppc.altivec.vslo
1275 res_vus = vec_vslo(vus, vsc); // CHECK: @llvm.ppc.altivec.vslo
1276 res_vus = vec_vslo(vus, vuc); // CHECK: @llvm.ppc.altivec.vslo
1291 res_vus = vec_splat(vus, 0); // CHECK: @llvm.ppc.altivec.vperm
1302 res_vus = vec_vsplth(vus, 0); // CHECK: @llvm.ppc.altivec.vperm
1334 res_vs = vec_sr(vs, vus); // CHECK: shr <8 x i16>
1335 res_vus = vec_sr(vus, vus); // CHECK: shr <8 x i16>
1340 res_vs = vec_vsrh(vs, vus); // CHECK: shr <8 x i16>
1341 res_vus = vec_vsrh(vus, vus); // CHECK: shr <8 x i16>
1348 res_vs = vec_sra(vs, vus); // CHECK: @llvm.ppc.altivec.vsrah
1349 res_vus = vec_sra(vus, vus); // CHECK: @llvm.ppc.altivec.vsrah
1354 res_vs = vec_vsrah(vs, vus); // CHECK: @llvm.ppc.altivec.vsrah
1355 res_vus = vec_vsrah(vus, vus); // CHECK: @llvm.ppc.altivec.vsrah
1361 res_vsc = vec_srl(vsc, vus); // CHECK: @llvm.ppc.altivec.vsr
1364 res_vuc = vec_srl(vuc, vus); // CHECK: @llvm.ppc.altivec.vsr
1367 res_vbc = vec_srl(vbc, vus); // CHECK: @llvm.ppc.altivec.vsr
1370 res_vs = vec_srl(vs, vus); // CHECK: @llvm.ppc.altivec.vsr
1372 res_vus = vec_srl(vus, vuc); // CHECK: @llvm.ppc.altivec.vsr
1373 res_vus = vec_srl(vus, vus); // CHECK: @llvm.ppc.altivec.vsr
1374 res_vus = vec_srl(vus, vui); // CHECK: @llvm.ppc.altivec.vsr
1376 res_vbs = vec_srl(vbs, vus); // CHECK: @llvm.ppc.altivec.vsr
1379 res_vp = vec_srl(vp, vus); // CHECK: @llvm.ppc.altivec.vsr
1382 res_vi = vec_srl(vi, vus); // CHECK: @llvm.ppc.altivec.vsr
1385 res_vui = vec_srl(vui, vus); // CHECK: @llvm.ppc.altivec.vsr
1388 res_vbi = vec_srl(vbi, vus); // CHECK: @llvm.ppc.altivec.vsr
1391 res_vsc = vec_vsr(vsc, vus); // CHECK: @llvm.ppc.altivec.vsr
1394 res_vuc = vec_vsr(vuc, vus); // CHECK: @llvm.ppc.altivec.vsr
1397 res_vbc = vec_vsr(vbc, vus); // CHECK: @llvm.ppc.altivec.vsr
1400 res_vs = vec_vsr(vs, vus); // CHECK: @llvm.ppc.altivec.vsr
1402 res_vus = vec_vsr(vus, vuc); // CHECK: @llvm.ppc.altivec.vsr
1403 res_vus = vec_vsr(vus, vus); // CHECK: @llvm.ppc.altivec.vsr
1404 res_vus = vec_vsr(vus, vui); // CHECK: @llvm.ppc.altivec.vsr
1406 res_vbs = vec_vsr(vbs, vus); // CHECK: @llvm.ppc.altivec.vsr
1409 res_vp = vec_vsr(vp, vus); // CHECK: @llvm.ppc.altivec.vsr
1412 res_vi = vec_vsr(vi, vus); // CHECK: @llvm.ppc.altivec.vsr
1415 res_vui = vec_vsr(vui, vus); // CHECK: @llvm.ppc.altivec.vsr
1418 res_vbi = vec_vsr(vbi, vus); // CHECK: @llvm.ppc.altivec.vsr
1428 res_vus = vec_sro(vus, vsc); // CHECK: @llvm.ppc.altivec.vsro
1429 res_vus = vec_sro(vus, vuc); // CHECK: @llvm.ppc.altivec.vsro
1444 res_vus = vec_vsro(vus, vsc); // CHECK: @llvm.ppc.altivec.vsro
1445 res_vus = vec_vsro(vus, vuc); // CHECK: @llvm.ppc.altivec.vsro
1465 vec_st(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.stvx
1466 vec_st(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.stvx
1491 vec_stvx(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.stvx
1492 vec_stvx(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.stvx
1515 vec_ste(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.stvehx
1530 vec_stvehx(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.stvehx
1551 vec_stl(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.stvxl
1552 vec_stl(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.stvxl
1577 vec_stvxl(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.stvxl
1578 vec_stvxl(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.stvxl
1605 res_vus = vec_sub(vus, vus); // CHECK: sub <8 x i16>
1606 res_vus = vec_sub(vbs, vus); // CHECK: sub <8 x i16>
1607 res_vus = vec_sub(vus, vbs); // CHECK: sub <8 x i16>
1622 res_vs = vec_vsubuhm(vbs, vus); // CHECK: sub <8 x i16>
1623 res_vs = vec_vsubuhm(vus, vbs); // CHECK: sub <8 x i16>
1624 res_vus = vec_vsubuhm(vus, vus); // CHECK: sub <8 x i16>
1625 res_vus = vec_vsubuhm(vbs, vus); // CHECK: sub <8 x i16>
1626 res_vus = vec_vsubuhm(vus, vbs); // CHECK: sub <8 x i16>
1649 res_vus = vec_subs(vus, vus); // CHECK: @llvm.ppc.altivec.vsubuhs
1650 res_vus = vec_subs(vbs, vus); // CHECK: @llvm.ppc.altivec.vsubuhs
1651 res_vus = vec_subs(vus, vbs); // CHECK: @llvm.ppc.altivec.vsubuhs
1667 res_vus = vec_vsubuhs(vus, vus); // CHECK: @llvm.ppc.altivec.vsubuhs
1668 res_vus = vec_vsubuhs(vbs, vus); // CHECK: @llvm.ppc.altivec.vsubuhs
1669 res_vus = vec_vsubuhs(vus, vbs); // CHECK: @llvm.ppc.altivec.vsubuhs
1732 res_vus = vec_xor(vus, vus); // CHECK: xor <8 x i16>
1733 res_vus = vec_xor(vbs, vus); // CHECK: xor <8 x i16>
1734 res_vus = vec_xor(vus, vbs); // CHECK: xor <8 x i16>
1756 res_vus = vec_vxor(vus, vus); // CHECK: xor <8 x i16>
1757 res_vus = vec_vxor(vbs, vus); // CHECK: xor <8 x i16>
1758 res_vus = vec_vxor(vus, vbs); // CHECK: xor <8 x i16>
1777 res_us = vec_extract(vus, param_i); // CHECK: extractelement <8 x i16>
1786 res_vus = vec_insert(param_us, vus, param_i); // CHECK: insertelement <8 x i16>
1832 res_vus = vec_lvlx(0, &vus); // CHECK: @llvm.ppc.altivec.lvx
1918 res_vus = vec_lvlxl(0, &vus); // CHECK: @llvm.ppc.altivec.lvxl
2004 res_vus = vec_lvrx(0, &vus); // CHECK: @llvm.ppc.altivec.lvx
2090 res_vus = vec_lvrxl(0, &vus); // CHECK: @llvm.ppc.altivec.lvxl
2192 vec_stvlx(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.lvx
2200 vec_stvlx(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.lvx
2329 vec_stvlxl(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.lvx
2337 vec_stvlxl(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.lvx
2466 vec_stvrx(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.lvx
2474 vec_stvrx(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.lvx
2603 vec_stvrxl(vus, 0, &param_us); // CHECK: @llvm.ppc.altivec.lvx
2611 vec_stvrxl(vus, 0, &vus); // CHECK: @llvm.ppc.altivec.lvx
2732 res_i = vec_all_eq(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2733 res_i = vec_all_eq(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2735 res_i = vec_all_eq(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2757 res_i = vec_all_ge(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2758 res_i = vec_all_ge(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2760 res_i = vec_all_ge(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2781 res_i = vec_all_gt(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2782 res_i = vec_all_gt(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2784 res_i = vec_all_gt(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2808 res_i = vec_all_le(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2809 res_i = vec_all_le(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2811 res_i = vec_all_le(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2832 res_i = vec_all_lt(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2833 res_i = vec_all_lt(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2835 res_i = vec_all_lt(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2859 res_i = vec_all_ne(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2860 res_i = vec_all_ne(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2862 res_i = vec_all_ne(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2899 res_i = vec_any_eq(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2900 res_i = vec_any_eq(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2902 res_i = vec_any_eq(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p
2924 res_i = vec_any_ge(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2925 res_i = vec_any_ge(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2927 res_i = vec_any_ge(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2948 res_i = vec_any_gt(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2949 res_i = vec_any_gt(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2951 res_i = vec_any_gt(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2972 res_i = vec_any_le(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2973 res_i = vec_any_le(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2975 res_i = vec_any_le(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2996 res_i = vec_any_lt(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2997 res_i = vec_any_lt(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
2999 res_i = vec_any_lt(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpgtuh.p
3023 res_i = vec_any_ne(vus, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p
3024 res_i = vec_any_ne(vus, vbs); // CHECK: @llvm.ppc.altivec.vcmpequh.p
3026 res_i = vec_any_ne(vbs, vus); // CHECK: @llvm.ppc.altivec.vcmpequh.p