s(Beras->Buku) = 2/8 = 0.25 = 25%Â
c(Beras->Buku)=2/6 = 0.33 = 33%
 {Beras,Telur}=5Â
s(Beras->Telur) = 5/8 = 0.625= 62.5%Â
c(Beras->Telur)=5/6 = 0.83 = 83%
dapat dilihat dari contoh perhitungan di atas, hal tersebut akan terus kita lakukan untuk menentukan nilai support dan confident untuk ke 31 kandidat itemset frequent yang lain. Akan memakan waktu sekali, namun coba lihat dari contoh perhitungan di atas. Ada korelasi yang bisa kita tarik hipotesa nya untuk memudahkan kita dalam menentukan aturan asosiasi yang tepat sesuai dengan konsep algoritma Apriori.
3. Â Menentukan nilai minimum Support
Misalkan nilai minimum support yang akan kita terapkan adalah minSupport=4 ( setara dengan 4/8 = 0.5 atau 50% ) Maka pada iterasi pertama k-itemset (k=1) akan terbentuk aturan sebagai berikut :
Beras = 6 Buku=4 Minyak=6 Telur=6 Topi=3
Dari kelima itemset tersebut, item topi ( 3/8 = 0.375 atau 37.5%) tidak memenuhi nilai minimum support=50 %. Sehingga pada iterasi kedua k-itemset (k=2). Semua itemset yang mengandung topi juga akan dieliminasi sesuai dengan prinsip algoritma apriori.
{Beras,Buku} = 2 {Beras,Minyak}=4 {Beras,Telur}=5 {Beras,Topi}=2 {Buku,Minyak}=3 {Buku,Telur}=2 {Buku,Topi}=1 { Telur,Minyak}=5 {Minyak,Topi}=3 {Telur,Topi}=3 Dan seterusnya……