Luận văn Khảo sát ứng dụng của tập thô trong lựa chọn và rút gọn đặc trưng cho bài toán nhận dạng – Luận văn, đồ án, đề tài tốt nghiệp

Banner-backlink-danaseo
ƒ So sánh theo chiều ngang : kết quảcho thấy chất lượng nhận dạng sau khi rút gọn đặc trưng sẽ tăng lên. Ví dụ : với tập Face_15_24_20, nếu giữnguyên 10 đặc trưng thì kết quảnhận dạng là 91.33, trong khi kết quảsau khi rút gọn còn 6 đặc trưng là 94.33. ƒ So sánh theo chiều xiên : với 2 tập đặc trưng cùng size, tập đặc trưng nhận được từ quy trình rút gọn cho chất lượng tốt hơn tập đặc trưng tương ứng với những thành phần tốt nhất của nghiên cứu và phân tích thành phần chính .

pdf109 trang |

Chia sẻ: lylyngoc

Xem thêm: Viber

| Lượt xem : 2155

| Lượt tải: 7

download

Bạn đang xem nội dung tài liệu Luận văn Khảo sát ứng dụng của tập thô trong lựa chọn và rút gọn đặc trưng cho bài toán nhận dạng, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên

ắt giải pháp nhận dạng mặt người bằng mặt riêng, trong đó sử dụng thuật toán người láng giềng gần nhất làm thuật toán phân lớp. Các bước cần thực thi như sau : 1. Chuẩn bị tập những ảnh mặt của 1 số ít người đã biết. Mỗi người hoàn toàn có thể có nhiều ảnh với một số ít biểu lộ cảm hứng, trong điều kiện kèm theo chiếu sáng, … khác nhau. Ví dụ : có 10 người, mỗi người gồm 4 ảnh, ta có 40 = M ảnh. KH OA C NT T – Đ H KH TN Chương 2 – Bài toán Nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 63 2. Tính ma trận L theo ) 72 ( −, tìm những vector riêng, trị riêng của nó và chọn ‘ M vector riêng tương ứng với những trị riêng lớn nhất. Tính ‘ M vector riêng của ma trận C theo công thức ) 92 ( −. 3. Với mỗi lớp người thứ k trong tập ảnh giảng dạy, tính vector mẫu trung bình từ những vector đặc trưng của lớp người này. Chọn tham số kθ cho những lớp người thứ k và tham số ngưỡng θ cho khoảng cách từ một ảnh mặt tới khoảng trống mặt. 4. Với mỗi ảnh mới cần nhận dạng, tính vector đặc trưng Ω và khoảng cách iε của vector đặc trưng này đến những lớp giảng dạy và khoảng cách ε tới khoảng trống mặt. Nếu khoảng cách nhỏ nhất kε thoả : kk θε <, đồng thời θε và θε < thì ảnh mới này xem như không biết, và hoàn toàn có thể được đưa vào một lớp giảng dạy mới. 5. Nếu ảnh mới được phân vào một lớp đã biết thì nó hoàn toàn có thể được sử dụng để đo lường và thống kê lại những mặt riêng. Phương pháp này làm cho mạng lưới hệ thống ngày càng hoàn thành xong hơn. 2.6. Ứng dụng những thuật toán lượng hoá vector trong quy trình phân lớp 2.6.1. Giới thiệu Trong bài toán nhận dạng mặt người, sau khi đã rút trích đặc trưng của từng ảnh mặt của mỗi người, tất cả chúng ta cần phải chọn một thuật toán để phân lớp những ảnh mặt mới vào một trong những lớp ảnh đào tạo và giảng dạy. Một tiếp cận đơn thuần được nêu ra trong chương trước là thuật toán người láng giềng gần nhất : ta sẽ tìm vector đặc trưng v cho ảnh mặt người cần phân lớp, sau đó tính khoảng cách từ v đến những vector đặc trưng của từng ảnh mặt người, hoặc đến vector đặc trưng trung bình cho từng lớp người trong tập KH OA C NT T – Đ H KH TN Chương 2 – Bài toán Nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 64 đào tạo và giảng dạy. Lớp có vector đặc trưng ( trung bình ) gần v nhất sẽ được gán cho ảnh cần nhận dạng. Tuy nhiên, chiêu thức trên có hai điểm yếu kém sau đây : o Tổng số lượng vector của tập huấn luyện hoàn toàn có thể rất lớn, khi đó để phân lớp một vector v mới ta hoàn toàn có thể phải duyệt hết tổng thể những vector này để tìm vector gần v nhất. o Không tận dụng một đặc thù là những vector thuộc cùng một lớp thường có khuynh hướng tập trung chuyên sâu quanh một hoặc nhiều vị trí mà ta hoàn toàn có thể xem như trọng tâm của lớp. Do đó một vector u thuộc lớp iℑ nằm lạc lõng - tức không nằm tập trung chuyên sâu quanh một trọng tâm của lớp, hoặc do tập huấn luyện chưa đủ lớn để ta hoàn toàn có thể nhận thức được tâm của lớp iℑ tương ứng với u - hoàn toàn có thể làm cho tác dụng phân lớp vector v không đúng mực. Để khắc phục những điểm yếu kém trên, người ta sử dụng thuật toán lượng hoá vector ( Learning Vector Quantization - LVQ ) để tìm kiếm những vector biểu lộ những trọng tâm của cluster hay lớp tài liệu. Mỗi cluster tài liệu trong bài toán nhận dạng mặt người là tập những điểm tương ứng với vector đặc trưng của ảnh thuộc cùng một người trong tập huấn luyện. Các vector trọng tâm này được gọi là những vector tham chiếu ( codebook vector ). Sau khi đã tìm được những vector tham chiếu của mỗi lớp, tất cả chúng ta sẽ sử dụng thuật toán người láng giềng gần nhất để phân loại những ảnh mới đưa vào mạng lưới hệ thống. 2.6.2. Một số thuật toán lượng hoá vector Trong phần này tất cả chúng ta điều tra và nghiên cứu hai thuật toán lượng hoá vector : thuật toán LVQ1 và nâng cấp cải tiến của nó, thuật toán LVQ1 với vận tốc học tối ưu ( Optimized – learning – rate LVQ1, hay OLVQ1 ). 2.6.2. 1. Thuật toán LVQ1 Giả sử trong khoảng trống những vector đặc trưng bắt đầu tất cả chúng ta đặt một số ít vector tham chiếu im, mỗi vector này được “ gán ” vào một lớp trong tập huấn luyện. Có thể có KH OA C NT T – Đ H KH TN Chương 2 – Bài toán Nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 65 nhiều vector tham chiếu cùng thuộc vào một lớp. Các vector tham chiếu này sẽ được kiểm soát và điều chỉnh dần trong quy trình học để hoàn toàn có thể quy tụ về những điểm mà ta hoàn toàn có thể xem như trọng tâm của cluster tương ứng. Đặt } { minarg ii mxc − = ) 162 ( − là chỉ số vector tham chiếu gần với vector tài liệu x nhất. Hiển nhiên tất cả chúng ta muốn rằng tổng thể những vector cm nói trên sẽ thuộc vào cùng một lớp với vector x tương ứng của nó. Quá trình học sau đây sẽ làm cực tiểu một cách tương đối sai số này. Gọi ) ( tx là vector tài liệu và ) ( tmi là vector tham chiếu im tại thời gian học t. Với những giá trị được khởi tạo thích hợp, quy trình update những vector tham chiếu được bộc lộ như sau : ) ] ( ) ( ) [ ( ) ( ) 1 ( tmtxttmtm ccc − + = + α ) 172 ( − nếu x và cm thuộc vào cùng một lớp. ) ] ( ) ( ) [ ( ) ( ) 1 ( tmtxttmtm ccc − − = + α ) 182 ( − nếu x và cm thuộc vào hai lớp khác nhau. ) ( ) 1 ( tmtm ii = + với mọi ci ≠ ) 192 ( − trong đó ) 1,0 ( ) ( ∈ tα là vận tốc học. Giá trị này hoàn toàn có thể là hằng số hoặc giảm tuyến tính theo thời hạn, ví dụ điển hình như : ) 1 ( 1.0 ) ( N tt − = α ) 202 ( − với N là số chu kỳ luân hồi của quy trình học. Theo thuật toán trên, tại mỗi thời gian học t, ta xét mỗi vector tài liệu x và tìm vector tham chiếu cm tương ứng với x. Nếu hai vector này thuộc cùng một lớp thì vector tham chiếu sẽ được vận động và di chuyển vào gần vector tài liệu không chỉ có vậy, ngược lại nó sẽ bị “ đẩy ” ra xa vector tài liệu hơn. Hình 2-8 và Hình 2-9 dưới đây minh hoạ cho hai trường hợp này. KH OA C NT T – Đ H KH TN Chương 2 – Bài toán Nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 66 Hình 2 - 8 : Vector tham chiếu được chuyển dời gần với vector tài liệu hơn – trường hợp hai vector này cùng lớp Hình 2 - 9 : Vector tham chiếu được đẩy ra xa vector tài liệu hơn - trường hợp hai vector này khác lớp 2.6.2. 2. Thuật toán OLVQ1 Thuật toán này cũng dựa trên sáng tạo độc đáo của LVQ1, chỉ khác là mỗi vector tham chiếu sẽ có một giá trị vận tốc học riêng. Như vậy, quy trình học được biểu lộ bởi những biểu thức sau : ) ] ( ) ( ) [ ( ) ( ) 1 ( tmtxttmtm cccc − + = + α ) 212 ( − nếu x và cm thuộc vào cùng một lớp. ) ] ( ) ( ) [ ( ) ( ) 1 ( tmtxttmtm cccc − − = + α ) 222 ( − nếu x và cm thuộc vào hai lớp khác nhau. ) ( ) 1 ( tmtm ii = + với mọi ci ≠ ) 232 ( − Phương trình ) 212 ( − và ) 222 ( − hoàn toàn có thể được viết lại như sau : ) ( ) ( ) ( ) ( ) ] ( ) ( 1 [ ) 1 ( txttstmttstm cccc αα + − = + ) 242 ( − x ) ( tmc ) 1 ( + tmc ) ) ( ) ( ( tmxt c − − α x ) 1 ( + tmc ) ( tmc ) ) ( ) ( ( tmxt c − α KH OA C NT T – Đ H KH TN Chương 2 – Bài toán Nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 67 trong đó 1 ) ( = ts nếu ) ( tmc và x cùng lớp, ngược lại 1 ) ( − = ts. Vì ) 242 ( − đúng với mọi thời gian đào tạo và giảng dạy t nên ta hoàn toàn có thể khai triển vế phải của nó thêm một cấp nữa, khi đó vector tham chiếu tại thời gian 1 + t sẽ phụ thuộc vào vào ) ( tcα phần vector tài liệu tại thời gian t và ) 1 ( ) ] ( ) ( 1 [ − − ttts cc αα phần vector tài liệu tại thời gian 1 − t. Ở đây, nếu ta cho rằng những vector tài liệu góp phần một lượng như nhau vào quy trình kiểm soát và điều chỉnh vector tham chiếu tại mọi thời gian thì ta sẽ có biểu thức : Nttttst ccc, ..., 2,1 ), 1 ( ) ] ( ) ( 1 [ ) ( = − − = ααα ) 252 ( − Biểu thức trên cho ta chiêu thức update vận tốc học tương ứng với vector tham chiếu cm : ) 1 ( ) ( 1 ) 1 ( ) ( − + − = tts t t c c c α αα ) 262 ( − Rõ ràng là với chiêu thức update trên thì giá trị của tham số học cα sẽ giảm nhanh với 1 ) ( = ts, tức là khi vector tham chiếu cm đã rơi đúng vào vùng cluster của nó. Tuy vậy, do giá trị cα cũng hoàn toàn có thể tăng lên, khi 1 ) ( − = ts, nên tất cả chúng ta phải chặn giá trị học này tại một ngưỡng nào đó, ví dụ điển hình như giá trị ngưỡng bằng 1, hoặc ta hoàn toàn có thể khởi tạo giá trị học cao một chút ít, ví dụ bằng 3.0, và sau đó khống chế vận tốc học không được vượt quá giá trị này. Như vậy, với một chút ít giả thiết tự đưa ra cho quy trình update vận tốc học, tất cả chúng ta đã tìm được một giải pháp giúp cho thuật toán quy tụ rất nhanh. Thực nghiệm chứng tỏ rằng, thuật toán thường quy tụ sau khoảng chừng thời hạn MkN ≈, với k nhận giá trị từ 5030 − và M là tổng số vector tham chiếu được sử dụng cho tổng thể những lớp tài liệu. 2.6.3. Vấn đề khởi tạo vector tham chiếu KH OA C NT T – Đ H KH TN Chương 2 – Bài toán Nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 68 Trong những thuật toán học LVQ, vấn đề khởi tạo những vector tham chiếu có vai trò rất quan trọng. Hình 2-9 dưới đây là một ví dụ. Trong ví dụ này ta có hai vector tài liệu : vector OA thuộc lớp 1 và vector OB thuộc lớp 2. Gọi OC là vector tham chiếu thuộc lớp 1 và được khởi tạo gần OB hơn OA như hình vẽ. Sau bước update tiên phong, vector OC trở thành vector 1OC. Hình 2 - 10 : Vector tham chiếu OC khởi tạo không tốt nên sau khi update thành 1OC thì càng xa vector tài liệu OA hơn. Ta nhận thấy rằng, vector 1OC lại càng xa vector OA hơn nữa, và thực sự là nếu liên tục update thì vector tham chiếu này sẽ đi ra xa tới vô cùng. Ví dụ trên cho thấy tầm quan trọng của vấn đề khởi tạo những vector tham chiếu. Trong chương trình setup cho luận văn này, tất cả chúng ta sẽ khởi tạo những vector tham chiếu như sau : o Sử dụng thuật toán người láng giềng gần nhất để tự phân lớp những vector tài liệu. o Với mỗi lớp k, nếu những vector tài liệu thuộc lớp này và, qua quy trình phân lớp trên, lại được phân lớp đúng mực vào lớp k của chúng thì ta sẽ khởi tạo O y x A B C C1 KH OA C NT T – Đ H KH TN Chương 2 – Bài toán Nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 69 những vector tham chiếu của lớp k trùng với những vector tài liệu này. Bằng cách này, qua lượt tiên phong update tổng thể những vector tham chiếu, tất cả chúng ta luôn bảo vệ rằng những vector tham chiếu sẽ được chuyển dời gần về một vector tài liệu thuộc cùng lớp với nó. Kết quả kiểm nghiệm cho thấy sau một thời hạn huấn luyện và đào tạo, những vector tham chiếu luôn quy tụ hay chỉ xê dịch xung quanh một vị trí được coi là trọng tâm của lớp. KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 70 Chương 3 Ứng Dụng Tập Thô Vào Bài Toán Nhận Dạng Mặt Người ----- oOo ----- 3.1. Giới thiệu Như tất cả chúng ta đã biết, rút trích đặc trưng là một quá trình quan trọng trong hàng loạt tiến trình hoạt động giải trí của một mạng lưới hệ thống nhận dạng. Các đặc trưng của mỗi mẫu sau khi rút trích từ tập dữ liệu khởi đầu sẽ được biểu lộ dưới dạng những vector nhiều chiều. Tập những vector này sẽ được sử dụng cho quy trình huấn luyện và đào tạo hay phân lớp của bộ nhận dạng. Có hai yếu tố tất cả chúng ta cần chăm sóc : ƒ Kích thước vector đặc trưng ảnh hưởng tác động trực tiếp đến vận tốc đào tạo và giảng dạy và phân lớp. Những trường hợp sử dụng mạng nơron Viral ngược để giảng dạy những mẫu học với thời hạn triển khai hàng giờ, thậm chí còn nhiều ngày không phải là hiếm. ƒ Trong những thành phần của vector đặc trưng, không phải toàn bộ những thành phần đều có ích cho quy trình phân lớp. Điều đó có nghĩa là có năng lực tất cả chúng ta giảm được kích cỡ của vector đặc trưng trước khi đưa vào sử dụng cho quy trình đào tạo và giảng dạy hay phân lớp. Từ hai yếu tố đặt ra ở trên, người ta đã chăm sóc đến việc lựa chọn và rút gọn vector đặc trưng cho bài toán nhận dạng nói chung và nhận dạng mặt người nói riêng. Trong chương này tất cả chúng ta sẽ nghiên cứu và điều tra 1 số ít giải pháp cũng như đưa ra quy mô thử nghiệm cho yếu tố ứng dụng triết lý tập thô vào quy trình tiến độ lựa chọn và rút gọn đặc trưng cho bài toán nhận dạng mặt người. 3.2. Ứng dụng tập thô trong lựa chọn đặc trưng [ 1 ] KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 71 3.2.1. Phương pháp chung Giả sử A = ), ( DCU ∪ là bảng quyết định hành động tạo bởi những vector đặc trưng của tập dữ liệu mẫu. Các thuộc tính trong C tương ứng là những thành phần đặc trưng của mỗi vector mẫu, tập thuộc tính D có duy nhất một thành phần là thuộc tính bộc lộ lớp của những vector mẫu. Khả năng phân loại của tập thuộc tính quyết định hành động C so với tập những lớp đối tượng người dùng được bộc lộ bởi tập đối tượng người dùng ) ( DPOSC. Nhiệm vụ chính của những giải pháp lựa chọn đặc trưng là tìm một tập thuộc tính rút gọn CR ⊆ bảo toàn năng lực phân loại này. Trong phần triết lý tập thô, tất cả chúng ta biết rằng trong một hệ thông tin hoàn toàn có thể sống sót một số ít thuộc tính C - không hề bỏ được mà việc vô hiệu chúng sẽ ngay lập tức làm giảm năng lực phân loại của tập thuộc tính C bắt đầu, tập thuộc tính đó chính là lõi ) ( CCORED. Do đó, tập thuộc tính lõi phải sống sót trong mọi rút gọn cũng như rút gọn trọn vẹn của hệ thông tin. Như vậy, bài toán lựa chọn tập thuộc tính dựa trên triết lý tập thô trở thành bài toán lựa chọn những thuộc tính C - hoàn toàn có thể bỏ được để bổ trợ vào tập ) ( CCORED cho đến khi tập thuộc tính nhận được R trở thành rút gọn của tập thuộc tính C khởi đầu, tức là điều kiện kèm theo sau phải được thoả mãn : ) ( ) ( DPOSDPOS CR =. 3.2.2. Kết hợp heuristic và kim chỉ nan tập thô 3.2.2. 1. Mô tả heuristic Trong phần này tất cả chúng ta sẽ đưa ra một heuristic cho việc lựa chọn dần những thuộc tính C - hoàn toàn có thể bỏ được cho đến khi nhận được tập rút gọn R. Tiêu chuẩn lựa chọn những thuộc tính này là một biến thể của tiêu chuẩn đã được sử dụng trong mạng lưới hệ thống mày mò luật RSGDT −. Trong mạng lưới hệ thống này, những thuộc tính được chọn để phát sinh ra những luật tuân theo kế hoạch được nêu sau đây : KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 72 1. Để nhận được tập thuộc tính nhỏ nhất hoàn toàn có thể, tất cả chúng ta ưu tiên chọn thuộc tính 0 a mà việc thêm nó vào tập rút gọn R hiện có sẽ làm cho số lượng đối tượng người dùng vững chắc tăng lên nhanh nhất, tức là : ) ( maxarg } { \ 0 DPOSa aR RCa ∪ ∈ = 2. Khi thêm thuộc tính 0 a vào R, tập những phân hoạch những đối tượng người tiêu dùng bền vững và kiên cố theo tập thuộc tính được chọn, tức tập hợp ) } { ( | ) ( 0 } { 0 DaRINDDPOS aR ∪ ∪ ∪, sẽ biến hóa, từ đó làm biến hóa tập những luật phát sinh. Trong những lớp tương tự thuộc tập phân hoạch mới, giả sử M là lớp có nhiều thành phần nhất và r là luật được phát sinh tương ứng với tập những đối tượng người dùng M. Ta nhận xét rằng, kích cỡ của tập M càng lớn bao nhiêu thì tính bao trùm của luật r càng lớn bấy nhiêu, đơn cử hơn là số lượng đối tượng người dùng thoả mãn r càng lớn. Như vậy ta hoàn toàn có thể lấy size của M như là tiêu chuẩn thứ hai trong lựa chọn thuộc tính. Tóm lại : Ta sử dụng hai chỉ số sau : ƒ Số lượng đối tượng người tiêu dùng bền vững và kiên cố : ) ) ( ( } { DPOScardv aRa ∪ = ƒ Kích thước lớp tương tự lớn nhất : ) ) } { ( | ) ( ( max_ } { DaRINDDPOSsizem aRa ∪ ∪ = ∪ trong đó a là thuộc tính chưa được chọn : RCa \ ∈. Hai chỉ số trên có xu thế cạnh tranh đối đầu với nhau, do đó ta sử dụng tích của chúng làm tiêu chuẩn ở đầu cuối để chọn thuộc tính. 3.2.2. 2. Thuật toán Trong phần này tất cả chúng ta trình diễn thuật toán lựa chọn thuộc tính dựa vào tiêu chuẩn nhìn nhận được nêu ở phần trên. Chúng ta sử dụng tập thuộc tính lõi như là tập xuất phát, kế đến ta chọn dần những thuộc tính còn lại cho đến khi nhận được một rút gọn. Chiến lược tìm kiếm sử dụng trong thuật toán này là tìm kiếm tham lam, điều này KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 73 không bảo vệ tìm được tập rút gọn trọn vẹn, nhưng cho phép thuật toán hoạt động giải trí hiệu suất cao trên tập dữ liệu lớn với nhiều thuộc tính. Vào : ƒ Hệ quyết định hành động A = ), ( DCU ∪. ƒ Ngưỡng threshold. Ra : ƒ Tập thuộc tính rút gọn R. Cấu trúc tài liệu : ƒ P : Tập những thuộc tính chưa được chọn. ƒ k : Tỉ lệ đối tượng người dùng vững chắc tại bước hiện tại. Thuật toán : Bước 1 : Khởi tạo : ) ( CCORER D =, ) ( \ CCORECP D =, 0 = k. Bước 2 : Loại bỏ những đối tượng người tiêu dùng vững chắc : ) ( \ DPOSUU R = Bước 3 : Đặt ) ( ) ) ( ( Ucard DPOScardk R =. Nếu thresholdk ≥ hoặc ) ( ) ( DPOSDPOS CR = Thì : Dừng. Hết nếu Bước 4 : Với mọi Pa ∈ ) ) ( ( } { DPOScardv aRa ∪ = ) ) } { ( | ) ( ( max_ } { DaRINDDPOSsizem aRa ∪ ∪ = ∪ Hết với mọi Bước 5 : Đặt ) ( maxarg0 aa Pa xmva ∈ = Bước 6 : } { 0 aRR ∪ =, } { \ 0 aPP = Bước 7 : Thực hiện bước 2. 3.2.2. 3. Ví dụ minh hoạ KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 74 Trong phần này tất cả chúng ta sẽ minh hoạ thuật toán trên bằng một ví dụ đơn cử. Bảng quyết định hành động được cho trong Bảng 3-1, trong đó }, ..., , { 721 xxxU =, }, ,, { dcbaC = và } { ED =. Giả sử giá trị ngưỡng threshold được chọn là 0.1. a b c d E 1 x 1 0 2 1 1 2 x 1 0 2 0 1 3 x 1 2 0 0 2 4 x 1 2 2 1 0 5 x 2 1 0 0 2 6 x 2 1 1 0 2 7 x 2 1 2 1 1 Bảng 3 - 1 : Bảng quyết định hành động cho ví dụ minh hoạ Ma trận phân biệt tương đối của hệ thông tin trên được biểu lộ trong Hình 3-1. Từ ma trận này ta nhận được tập lõi } { ) ( bCCORED =. Từ những lớp tương tự : } }, { }, ,, { }, , { { } ) ( { | 4376521 xxxxxxxbINDU = } }, , { }, ,, { }, { { } ) ( { | 6537214 xxxxxxxEINDU = 1 x 2 x 3 x 4 x 5 x 6 x 7 x 1 x { } { } }, , { dcb } { b }, ,, { dcba }, ,, { dcba { } 2 x { } }, { cb }, { db }, , { cba }, , { cba { } 3 x { } }, { dc { } { } }, ,, { dcba 4 x { } }, ,, { dcba }, ,, { dcba }, { ba KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 75 5 x { } { } }, { dc 6 x { } }, { dc 7 x { } Hình 3 - 1 : Ma trận phân biệt tương đối của hệ thông tin trong Bảng 3-1 ta nhận được b - vùng dương của E : }, { } ) ( { 21 } { xxEPOS b =. Như vậy ở trạng thái khởi đầu, ta có : } { bR =, }, , { dcaP = và tập những trạng thái không vững chắc }, ,, , { 76543 xxxxxU =. Trạng thái bắt đầu này được cho trong Bảng 3-2. b E 3 x 2 2 4 x 2 0 5 x 1 2 6 x 1 2 7 x 1 1 Bảng 3 - 2 : Trạng thái khởi đầu Vì tỉ lệ đối tượng người dùng vững chắc là 17/2 = < = thresholdk nên R chưa phải là rút gọn. Chúng ta phải liên tục việc lựa chọn thuộc tính để đưa vào R. Các thuộc tính ứng viên còn lại của tất cả chúng ta là a, c và d. Bảng3-3, 3-4 và 3-5 dưới đây lần lượt là tác dụng của việc chọn những thuộc tính a, c và d. a b E 3 x 1 2 2 4 x 1 2 0 5 x 2 1 2 6 x 2 1 2 KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 76 7 x 2 1 1 Bảng 3 - 3 : Trạng thái tiếp theo khi thêm a b c E 3 x 2 0 2 4 x 2 2 0 5 x 1 0 2 6 x 1 1 2 7 x 1 2 1 Bảng 3 - 4 : Trạng thái tiếp theo khi thêm c b d E 3 x 2 0 2 4 x 2 1 0 5 x 1 0 2 6 x 1 0 2 7 x 1 1 1 Bảng 3 - 5 : Trạng thái tiếp theo khi thêm d Từ ba bảng trên ta nhận được những tập hợp sau đây : } } { }, { }, ,, { { } ) ( { | 74653 xxxxxEINDU = } }, , { }, , { { } ), ( { | 76543 xxxxxbaINDU = } } { }, { }, { }, { }, { { } ), ( { | 76543 xxxxxcbINDU = } } { }, , { }, { }, { { } ), ( { | 76543 xxxxxdbINDU = KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 77 ∅ = ) ( }, { EPOS ba }, ,, , { ) ( ) ( 76543 }, { }, { xxxxxEPOSEPOS dbcb = = 1 } ) ), , ( { | ) ( ( max_ }, { = EcbINDEPOSsize cb 2 } ), ( { } ) ), , ( { | ) ( ( max_ 65 }, { = = xxcardEdbINDEPOSsize db Ta nhận thấy rằng thuộc tính a không làm giảm số lượng thuộc tính không vững chắc, trong khi đó việc chọn c hoặc d đều làm cho tổng thể những thuộc tính còn lại trở nên vững chắc. Theo thuật toán của tất cả chúng ta, thuộc tính d sẽ được chọn thứ nhất. Sau khi đã đưa d vào tập R, tổng thể những đối tượng người tiêu dùng đều vững chắc, thresholdk = nên thuật toán kết thúc. Vậy tập rút gọn nhận được là }, { db. □ 3.3. Mô hình thử nghiệm Phần này trình diễn về quy mô được sử dụng để thử nghiệm tính năng của tập thô trong lựa chọn đặc trưng cho bài toán nhận dạng mặt người. So với quy mô tổng quát của một hệ nhận dạng mặt người hoàn hảo nêu ra trong chương II, ở đây tất cả chúng ta chỉ setup công dụng của một bộ nhận dạng với hai quá trình huấn luyện và đào tạo và kiểm tra. 3.3.1. Tập dữ liệu Trong hàng loạt quy trình thử nghiệm, tất cả chúng ta sử dụng tập dữ liệu mặt người ORL được cung ứng không tính tiền trên mạng Internet tại địa chỉ Tập dữ liệu này có toàn bộ 40 người, mỗi người có 10 ảnh kích cỡ ) 112,92 ( ), ( = docngang với nhiều trạng thái xúc cảm, mang kính / không mang kính, … Nền ảnh là màu đen giống hệt. Sử dụng tập dữ liệu này là tương thích với tiềm năng đề ra : kiểm nghiệm tính năng của tập thô vào quy trình lựa chọn đặc trưng. Để làm cho tập dữ liệu phong phú và đa dạng hơn, những ảnh mặt sẽ được biến hóa bởi những thao tác thêm nhiễu, co dãn, làm mờ, … Tập dữ liệu dùng đào tạo và giảng dạy sẽ có 24 ảnh / người, kiểm tra có 20 ảnh / người. KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 78 Hình 3 - 2 : Phân chia tập dữ liệu đào tạo và giảng dạy và kiểm tra Hình 3 - 3 : Ảnh của 10 người tiên phong trong tập dữ liệu ORL 3.3.2. Mô hình 1 Đây là quy mô dùng kiểm tra năng lực của bộ rút trích đặc trưng bằng chiêu thức nghiên cứu và phân tích thành phần chính PCA và năng lực phân loại bằng thuật toán lượng hoá vector LVQ. ORL Tập ảnh giảng dạy 44 Tập ảnh kiểm tra 24 20 KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 79 ƒ Giai đoạn giảng dạy : Tập ảnh huấn luyện và đào tạo được đưa vào bộ phận nghiên cứu và phân tích thành phần chính, hiệu quả tạo ra là tập những vector đặc trưng. Tập vector đặc trưng này làm đầu vào cho thuật toán LVQ để tạo ra tập vector tham chiếu. Tập vector tham chiếu được tàng trữ lại cho quy trình phân lớp. ƒ Giai đoạn phân lớp : Rút trích đặc trưng của tập ảnh kiểm tra bằng bộ nghiên cứu và phân tích PCA. Tập vector đặc trưng này cùng tập vector tham chiếu được đưa vào bộ phân lớp bằng thuật toán người láng giềng gần nhất để triển khai phân loại. Hai quy trình tiến độ huấn luyện và đào tạo và phân lớp lần lượt được bộc lộ trong Hình 3-4 và Hình 3-5. Lưu ý rằng trong những quy mô này, tham số ' M là số thành phần tốt nhất, tương ứng với những trị riêng lớn nhất, trong nghiên cứu và phân tích thành phần chính. Giá trị tham số này do người dùng phân phối. Hình 3 - 4 : Giai đoạn huấn luyện và đào tạo tạo tập vector tham chiếu Tập ảnh đào tạo và giảng dạy PCA Tập vector đặc trưng LVQ Tập vector tham chiếu Tham số M ’ KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 80 Hình 3 - 5 : Giai đoạn phân lớp tập ảnh kiểm tra 3.3.3. Mô hình 2 Mô hình này là lan rộng ra của quy mô 1 bằng cách sử dụng kim chỉ nan tập thô để tìm rút gọn cho tập những thuộc tính đặc trưng rút ra trong quá trình đào tạo và giảng dạy. Lưu ý rằng do những khái niệm tương quan đến tập thô chỉ thao tác trên thuộc tính rời rạc nên ta cần sử dụng thêm bước rời rạc hoá tập thuộc tính trước khi làm đầu vào cho những thuật toán tập thô. Tập ảnh kiểm tra PCA Tập vector đặc trưng Bộ phân lớp người láng giềng gần nhất Tập vector tham chiếu Người 1 Người 2 Người n Tham số M ’ KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 81 ƒ Giai đoạn huấn luyện và đào tạo : o Rút trích đặc trưng cho tập ảnh giảng dạy bằng giải pháp nghiên cứu và phân tích thành phần chính như quy mô 1, hiệu quả nhận được là tập những vector đặc trưng có giá trị thực. Gọi tập những thuộc tính của những vector này là C, ' MC =. o Áp dụng thuật toán rời rạc hoá cho tập những vector đặc trưng này, hiệu quả nhận được là tập những vector đặc trưng nhận giá trị rời rạc gồm C thành phần. Ta sử dụng thuật toán rời rạc : chia miền giá trị của mỗi thuộc tính thành k khoảng chừng bằng nhau, nếu giá trị thực tại một thuộc tính thuộc vào khoảng chừng thứ } 1, ..., 1,0 { − ∈ kt thì giá trị rời rạc tương ứng là t. Cũng như ' M, giá trị của khoảng chừng rời rạc k do người dùng cung ứng ( Xem phần 3.3.4 ). o Sử dụng kim chỉ nan tập thô để tìm tập thuộc tính rút gọn R của tập thuộc tính C khởi đầu. Ta sử dụng ba thuật toán : Johnson, Random được trình diễn trong chương 1, và heuristic vừa được trình diễn ở phần trên ( ta tạm gọi là giải pháp Heuristic ). o Với tập vector đặc trưng giá trị thực ) ( Ccard thành phần, giữ lại những thành phần tương ứng với những thuộc tính trong R. Ta được tập vector đặc trưng mới có giá trị thực gồm ) ( Rcard thuộc tính. o Sử dụng thuật toán lượng hoá vector so với tập vector đặc trưng giá trị thực ) ( Rcard thành phần để tạo tập những vector tham chiếu. ƒ Giai đoạn phân lớp : o Rút trích đặc trưng cho tập ảnh huấn luyện và đào tạo bằng chiêu thức nghiên cứu và phân tích thành phần chính như quy mô 1, tác dụng nhận được là tập những vector đặc trưng có giá trị thực. Gọi tập những thuộc tính của những vector này là C. KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 82 o Với tập vector đặc trưng giá trị thực ) ( Ccard thành phần, giữ lại những thành phần tương ứng với những thuộc tính trong R. Ta được tập vector đặc trưng mới có giá trị thực gồm ) ( Rcard thuộc tính. o Sử dụng tập vector tham chiếu, phân lớp tập vector đặc trưng ) ( Rcard thành phần bằng thuật toán người láng giềng gần nhất Hai quy trình tiến độ đào tạo và giảng dạy và phân lớp lần lượt được bộc lộ trong Hình 3-6 và Hình 3-7. KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 83 Tập ảnh giảng dạy PCA Tập vector đặc trưng liên tục ) ( Ccard thành phần LVQ Tập vector tham chiếu Rời rạc hoá Tập vector đặc trưng rời rạc ) ( Ccard thành phần Rút gọn thuộc tính Random Heuristic Tập thuộc tính CR ⊆ Bộ lọc thuộc tính Tập vector đặc trưng liên tục ) ( Rcard thành phần Tham số M ’ Johnson Khoảng rời rạc k KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 84 Hình 3 - 6 : Giai đoạn huấn luyện và đào tạo tạo tập vector tham chiếu Hình 3 - 7 : Giai đoạn phân lớp tập ảnh kiểm tra 3.3.4. Vấn đề lựa chọn số khoảng chừng rời rạc Thuật toán rời rạc là một phần quan trọng trong quy mô thử nghiệm ở trên và góp một phần vào tác dụng nhận dạng sau cuối. Đối với thuật toán rời rạc chia đều khoảng cách được sử dụng trong quy mô, số lượng k những khoảng chừng rời rạc của những thuộc tính nên được chọn thoả mãn điều kiện kèm theo : mk < với m là số lượng ảnh giảng dạy ( hay số Tập ảnh kiểm tra PCA Tập vector đặc trưng liên tục ) ( Ccard thành phần Tập vector tham chiếu Tập thuộc tính CR ⊆ Bộ lọc thuộc tính Tập vector đặc trưng liên tục ) ( Rcard thành phần Bộ phân lớp bằng thuật toán người láng giềng gần nhất Người 1 Người 2 Người n Tham số M ’ KH OA C NT T – Đ H KH TN Chương 3 – Ứng dụng Tập thô vào bài toán nhận dạng mặt người = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 85 lượng ảnh giảng dạy trung bình ) của mỗi người trong tập huấn luyện. Heuristic này được đưa ra dựa trên hai lập luận sau đây : 1. Giả sử sau khi rút trích đặc trưng, một người nào đó có m vector đặc trưng 1 v, 2 v, …, mv với tập thuộc tính ( hay thành phần ) là C. Gọi những giá trị của tập vector này tại thuộc tính Ca ∈ là ] [ 1 av, ] [ 2 av, …, ] [ avm và giá trị Ravi ∈ ] [, sau quy trình rời rạc hóa, sẽ trở thành giá trị mikadi, ..., 2,1 }, 1, ..., 1,0 { ] [ = ∀ − ∈. Theo nguyên tắc Dirichlet [ 2 ], trong tập những giá trị rời rạc ] } [ ], ..., [ ], [ { 110 adadad k − sống sót 2 ≥       k m ( vì mk < ) giá trị rời rạc bằng nhau, hay : }, ..., 2,1 {, mji ∈ ∃, ji ≠, ] [ ] [ adad ji =. Đây cũng là điều khá hài hòa và hợp lý mà ta mong ước : với cùng một người, tại mọi thuộc tính Ca ∈, luôn có tối thiểu hai vector đặc trưng nhận giá trị như nhau tại a. 2. Khi số lượng khoảng chừng rời rạc càng lớn thì Xác Suất để hai vector đặc trưng nhận giá trị như nhau tại mỗi thuộc tính sẽ càng nhỏ. Điều này cũng có nghĩa là năng lực phân biệt những đối tượng người dùng ( vector đặc trưng ) của những thuộc tính càng lớn, dẫn đến những rút gọn có size càng nhỏ. Trong trường hợp xấu nhất, sống sót một thuộc tính Ca ∈ mà tại đó tổng thể những vector đặc trưng đều nhận giá trị khác nhau, và như vậy } { aR = là một rút gọn của tập thuộc tính C. Rõ ràng việc nhận dạng với tập thuộc tính R như vậy sẽ cho tác dụng không cao. Heuristic chọn khoảng chừng rời rạc vừa trình diễn đã được kiểm nghiệm trong thực tiễn. Trong trường hợp số khoảng chừng rời rạc quá lớn, tập thuộc tính rút gọn có size rất nhỏ ( 2 hoặc 3 ) thành phần dẫn đến tác dụng nhận dạng thấp. Trong chương trình thử nghiệm, với tập dữ liệu huấn luyện và đào tạo 24 ảnh / người, ta hoàn toàn có thể chọn số khoảng chừng rời rạc là 10. KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 86 Chương 4 Cài Đặt Chương Trình Và Thử Nghiệm ----- oOo ----- 4.1. Chương trình setup 4.1.1. Ngôn ngữ và môi trường tự nhiên Chương trình thử nghiệm được thiết lập bằng ngôn từ C + + trên hệ quản lý Microsoft Windows NT / 2000 và Microsoft Windows XP, sử dụng thiên nhiên và môi trường lập trình Microsoft Visual C + + 6.0 IDE. 4.1.2. Tổ chức thư mục mã nguồn Thư mục Dib : Chứa tập tin cho thư viện giải quyết và xử lý ảnh. Thư mục Newmat : Thư viện ma trận. Thư mục Stefan Chekanov : Chứa tập tin cho những lớp truy xuất cơ sở tài liệu. Chức năng tàng trữ tài liệu không được tương hỗ trong chương trình thiết lập này. Thư mục My Classes : Các lớp giải quyết và xử lý quan trọng. Thư mục Others : Chứa tập tin cho những lớp tiện ích khác. Các tập tin cho những lớp giao diện : nằm trong thư mục hiện hành Face Recognition. 4.1.3. Một số lớp quan trọng 1. Lớp bảng quyết định hành động ƒ Tên lớp : CDecisionTable ƒ Tập tin : My Classes \ DecisionTable. h My Classes \ DecisionTable. cpp KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 87 ƒ Chức năng : Biểu diễn một hệ thông tin có một thuộc tính quyết định hành động ( bảng quyết định hành động ) và những thao tác tương ứng. Sử dụng để lưu tập vector đặc trưng của tập huấn luyện, kiểm tra. 2. Các lớp triển khai rút trích đặc trưng 2.1. Sơ đồ lớp Hình 4 - 1 : Sơ đồ những lớp rút trích đặc trưng 2.2. Lớp rút trích đặc trưng cơ sở ƒ Tên lớp : CFeatureExtractor ƒ Tập tin : My Classes \ FeatureExtractor. h My Classes \ FeatureExtractor. cpp ƒ Chức năng : Lớp cơ sở cho những lớp rút trích đặc trưng 2.3. Lớp nghiên cứu và phân tích thành phần chính ( PCA ) ƒ Tên lớp : CPCA ƒ Tập tin : My Classes \ PCA.h My Classes \ PCA.cpp ƒ Chức năng : Thực hiện rút trích đặc trưng tập ảnh bằng chiêu thức nghiên cứu và phân tích thành phần chính. 2.4. Lớp rút trích đặc trưng bằng chiêu thức SVD và PCA CFeatureExtractor CPCA CSVDandPCA KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 88 ƒ Tên lớp : CSVDandPCA ƒ Tập tin : My Classes \ SVDandPCA. h My Classes \ SVDandPCA. cpp ƒ Chức năng : Rút trích đặc trưng ảnh bằng giải pháp SVD tích hợp PCA. Lưu ý : Trong chương trình thiết lập có thêm hai quy mô 3 và 4 tích hợp phép biến hóa SVD và PCA để rút trích đặc trưng ảnh mặt. Tuy nhiên do chưa có tài liệu nào chứng tỏ được hiệu suất cao của SVD trong nhận dạng, và hiệu quả kiểm nghiệm trên tài liệu ORL cho thấy công dụng rút trích đặc trưng của SVD chưa cao nên đây chỉ là 2 thiết lập phụ, không được sử dụng để minh hoạ hay thống kê trong luận văn này. Về phép biến hóa SVD, xin xem [ 1 ]. 3. Lớp rời rạc hoá ƒ Tên lớp : CEqualWidthDiscretizer ƒ Tập tin : My Classes \ EqualWidthDiscretizer. h My Classes \ EqualWidthDiscretizer. cpp ƒ Chức năng : Rời rạc tài liệu bằng giải pháp chia đều miền giá trị. 4. Lớp thuật toán tập thô ƒ Tên lớp : CRoughSetAlgorithm ƒ Tập tin : My Classes \ RoughSetAlgorithm. h My Classes \ RoughSetAlgorithm. cpp ƒ Chức năng : Thực hiện những thuật toán trong kim chỉ nan tập thô. 5. Các lớp rút gọn thuộc tính 5.1. Sơ đồ lớp KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 89 Hình 4 - 2 : Sơ đồ những lớp triển khai rút gọn đặc trưng 5.2. Lớp cơ sở ƒ Tên lớp : CReductsFinder ƒ Tập tin : My Classes \ ReductsFinder. h My Classes \ ReductsFinder. cpp ƒ Chức năng : Lớp cơ sở cho những thuật toán tìm tập rút gọn. 5.3. Lớp kế hoạch Johnson ƒ Tên lớp : CJohnsonReductFinder ƒ Tập tin : My Classes \ JohnsonReductFinder. h My Classes \ JohnsonReductFinder. cpp ƒ Chức năng : Tìm tập thuộc tính rút gọn theo kế hoạch Johnson. 5.4. Lớp kế hoạch ngẫu nhiên ƒ Tên lớp : CRandomReductFinder ƒ Tập tin : My Classes \ RandomReductFinder. h My Classes \ RandomReductFinder. cpp ƒ Chức năng : Tìm tập thuộc tính rút gọn theo kế hoạch ngẫu nhiên Phần Trăm. CReductsFinder CJohnsonReductFinder CRandomReductFinder CHeuristicReductFinder KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 90 5.5. Lớp Heuristic ƒ Tên lớp : CRSReductFinder ƒ Tập tin : My Classes \ RSReductFinder. h My Classes \ RSReductFinder. cpp ƒ Chức năng : Tìm tập thuộc tính rút gọn dựa theo tiêu chuẩn đưa ra trong hệ RSGDT −. 6. Lớp mạng lượng hoá vector ( LVQ ) ƒ Tên lớp : CLVQNet ƒ Tập tin : My Classes \ LVQNet. h My Classes \ LVQNet. cpp ƒ Chức năng : Khởi tạo và huấn luyện tập những vector tham chiếu. 7. Lớp thuật toán phân loại người láng giềng gần nhất ƒ Tên lớp : CNearestNeighbor ƒ Tập tin : My Classes \ NearestNeighbor. h My Classes \ NearestNeighbor. cpp ƒ Chức năng : Thực hiện phân lớp tập vector đặc trưng của tài liệu kiểm tra theo tập những vector tham chiếu tạo bởi mạng lượng hoá vector. 4.2. Tổ chức tài liệu thử nghiệm - Các tập dữ liệu đào tạo và giảng dạy, kiểm tra lần lượt được đặt trong thư mục Train và Test. - Các tập có cùng số người và số ảnh huấn luyện và đào tạo / người được đặt vào cùng một thư mục có tên : Face___. KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 91 Ví dụ : Thư mục Face_15_24_20 chứa những tập huấn luyện, kiểm tra với 15 người, mỗi người có 24 ảnh huấn luyện và đào tạo và 20 ảnh kiểm tra. Các thư mục nằm trong Face_15_24_20 là những thư mục chứa từng tập huấn luyện, kiểm tra. Một sơ đồ cây minh hoạ việc tổ chức triển khai này : Hình 4 - 3 : Minh hoạ tổ chức triển khai tập dữ liệu - Trong những thư mục Train và Test, ảnh của mỗi người được gom vào từng thư mục mang tên là những số tự nhiên. Các số tự nhiên này là bắt buộc và sẽ được sử dụng như tên tham chiếu tới người tương ứng ( tức là tất cả chúng ta không sử dụng thư mục mang tên của từng người ). 4.3. Hướng dẫn và minh hoạ sử dụng chương trình 4.3.1. Màn hình chính Face_15_24_20 1 Train Test 2 Train Test KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 92 Hình 4 - 4 : Màn hình chính của chương trình 4.3.2. Nhập tập ảnh huấn luyện và đào tạo - Menu : File / New training database … - Chọn thư mục chứa tập ảnh đào tạo và giảng dạy, trong Hình 4-5 thư mục này là Train. - Hình ảnh : KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 93 Hình 4 - 5 : Chọn tập ảnh đào tạo và giảng dạy KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 94 Hình 4 - 6 : Sau khi chọn tập ảnh huấn luyện và đào tạo 4.3.3. Chọn thuật toán rút gọn thuộc tính - Menu : Reduction Algorithm. Thuật toán được chọn sẽ được vận dụng vào những quy mô 2 và 4. Thuật toán khởi tạo là Johnson. 4.3.4. Quá trình đào tạo và giảng dạy - Nút nhấn : Training … - Chọn quy mô sử dụng. - Hình ảnh : KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 95 Hình 4 - 7 : Chọn quy mô huấn luyện và đào tạo - Chọn tham số của quy mô tương ứng. - Hình ảnh : KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 96 Hình 4 - 8 : Chọn tham số cho quy mô 4.3.5. Quá trình phân lớp - Có 2 chính sách : o Phân lớp tập ảnh có giám sát : Tập ảnh đưa vào đã được phân vào những thư mục tương ứng với từng người ( xem phần diễn đạt tài liệu 4.2 ). Chẳng hạn như những thư mục Test nói trong 4.2. o Phân lớp tập ảnh không giám sat : Tất cả những ảnh kiểm tra nằm trực tiếp trong một thư mục, không thuộc những thư mục của từng người. - Chọn chính sách : o Classified persons o Unclassified persons KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 97 - Mở thư mục : nút nhấn Browse. - Hình ảnh : Hình 4 - 9 : Chọn thư mục phân lớp trong chính sách giám sát - Nhấn nút Classify để khởi đầu phân lớp. - Kết quả phân lớp : o Chế độ có giám sát : Tỉ lệ Xác Suất số ảnh được phân lớp đúng. o Chế độ không giám sát : Unknown. 4.3.6. Xem thông tin - Các mục trong menu Information : o Real – attribute training table : Bảng huấn luyện và đào tạo ở trạng thái giá trị thực. KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 98 o Discrete – attribute training table : Bảng giảng dạy ở trạng thái giá trị rời rạc. o Real – attribute testing table : Bảng kiểm tra ở trạng thái giá trị thực. o Discrete – attribute testing table : Bảng kiểm tra ở trạng thái giá trị rời rạc. o Set of attributes : Tập thuộc tính sử dụng để phân lớp. Đối với quy mô 2 và 4 đây là tập những thuộc tính rút gọn, với quy mô 1 và 3 đây là tập tổng thể những thuộc tính đặc trưng. o Training type : Xem những thông tin tham số, thuật toán của quy mô vừa sử dụng. 4.4. Một số hiệu quả 4.4.1. Thư mục Face_10_24_20 ƒ Số lượng người : 10 ƒ Số ảnh huấn luyện và đào tạo / người : 24 ƒ Số ảnh kiểm tra / người : 20 ƒ Số vector tham chiếu ( LVQ ) : 10 ƒ Chu kỳ huấn luyện và đào tạo : 5000 ƒ Số khoảng chừng rời rạc ( bước rời rạc hoá ) : 3 ƒ Bảng số liệu Mô hình 2 Johnson Heuristic Random STT Tham số PCA Kết qủa quy mô 1 ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) 1 5 87.5 5 87.5 5 87.5 5 87.5 2 6 93.5 6 93.5 6 93.5 6 93.5 KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 99 3 7 97.5 7 97.5 6 94.5 6 94 4 8 97 8 97 6 87 7 94.5 5 9 97.5 8 97 6 94 8 93.5 6 10 98 8 97 6 82.5 8 95.5 7 11 98 8 97 6 82.5 8 98 8 12 99 7 94 6 82.5 7 97 9 13 99 7 94 6 82.5 9 85 10 14 99.5 7 94 6 82.5 8 93 11 15 100 7 94 6 82.5 8 95.5 Bảng 4 - 1 : Kết quả huấn luyện và đào tạo, kiểm tra tập Face_10_24_20 4.4.2. Thư mục Face_15_24_20 ƒ Số lượng người : 15 ƒ Số ảnh đào tạo và giảng dạy / người : 24 ƒ Số ảnh kiểm tra / người : 20 ƒ Số vector tham chiếu ( LVQ ) : 10 ƒ Chu kỳ đào tạo và giảng dạy : 8000 ƒ Số khoảng chừng rời rạc ( bước rời rạc hoá ) : 3 Mô hình 2 Johnson Heuristic Random STT Tham số PCA Kết qủa quy mô 1 ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) 1 5 85 5 85 5 85 5 85 2 6 87 6 87 6 87 6 87 3 7 89 7 89 7 89 7 89 KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 100 4 8 90.33 8 90.33 8 90.33 8 90.33 5 9 90.67 9 90.67 8 90.33 9 90.67 6 10 91.33 8 89.67 6 94.33 8 97.67 7 11 91.33 8 89.67 6 94.33 9 90.67 8 12 92 8 89.67 7 97.67 8 90.33 9 13 92.33 8 89.67 7 97.67 9 90.67 10 14 92.33 9 91.67 7 97.67 10 88.67 11 15 92.33 9 91.67 7 97.67 8 89.67 Bảng 4 - 2 : Kết quả huấn luyện và đào tạo, kiểm tra tập Face_15_24_20 4.4.3. Thư mục Face_20_24_20 ƒ Số lượng người : 20 ƒ Số ảnh giảng dạy / người : 24 ƒ Số ảnh kiểm tra / người : 20 ƒ Số vector tham chiếu ( LVQ ) : 10 ƒ Chu kỳ giảng dạy : 10000 ƒ Số khoảng chừng rời rạc ( bước rời rạc hoá ) : 3 Mô hình 2 Johnson Heuristic Random STT Tham số PCA Kết qủa quy mô 1 ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) 1 5 76.5 5 76.5 5 76.5 5 76.5 2 6 82 6 82 6 82 6 82 3 7 87 7 87 7 87 7 87 4 8 82.75 8 82.75 8 82.75 8 82.75 KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 101 5 9 82 9 82 9 82 9 82 6 10 85.25 10 85.25 10 85.25 10 85.25 7 11 86 11 86 11 86 11 86 8 12 86.25 10 85.5 9 88.5 11 90.33 9 13 92.33 10 85.5 8 89.25 10 90.67 10 14 87.25 11 81.25 9 94.5 11 88.67 11 15 86.5 11 81.25 10 95.5 13 89.67 12 16 86.5 11 81.25 10 95.5 12 82 13 17 86.5 10 81.75 10 95.5 11 89.5 14 18 87 10 81.75 11 90.25 13 91.5 15 19 87.25 11 81.75 11 90.25 12 84.5 16 20 87.25 11 81.75 11 90.25 12 79.5 Bảng 4 - 3 : Kết quả đào tạo và giảng dạy, kiểm tra tập Face_20_24_20 4.4.4. Thư mục Face_25_24_20 ƒ Số lượng người : 25 ƒ Số ảnh giảng dạy / người : 24 ƒ Số ảnh kiểm tra / người : 20 ƒ Số vector tham chiếu ( LVQ ) : 10 ƒ Chu kỳ giảng dạy : 12500 ƒ Số khoảng chừng rời rạc ( bước rời rạc hoá ) : 3 Mô hình 2 Johnson Heuristic Random STT Tham số PCA Kết qủa quy mô 1 ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) Số thuộc tính Kết quả ( % ) KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 102 1 10 83.8 10 83.8 10 83.8 10 83.8 2 11 86.6 11 86.6 11 86.6 10 83.8 3 12 88.2 12 88.2 11 84.4 12 88.2 4 13 84.6 12 84.6 10 77.8 11 86.6 5 14 85.4 11 90.2 9 80.4 13 84.6 6 15 85 10 83.2 10 88.8 13 89 7 16 84.8 10 83.2 10 88.8 12 80.6 8 17 84.8 10 83.2 10 96.4 12 84.8 9 18 85 10 83.2 10 86.2 14 84.2 10 19 84.8 10 83.2 10 86.2 14 79.8 11 20 85.6 10 83.2 10 86.2 12 84.6 12 21 86.2 10 83.2 10 86.2 14 84.8 13 22 85.6 10 83.2 10 86.2 14 76 14 23 86.4 10 83.2 10 91 12 74.4 15 24 85.8 10 83.2 10 91 13 81.8 16 25 85.8 11 81.75 10 91 14 79.2 Bảng 4 - 4 : K ết quả giảng dạy, kiểm tra tập Face_25_24_20 4.5. Nhận xét tác dụng Từ những tác dụng thử nghiệm ở trên ta có 1 số ít nhận xét : 1. Trong 3 thuật toán tìm rút gọn tập thuộc tính, kế hoạch Heuristic tỏ ra tiêu biểu vượt trội hơn và kế hoạch ngẫu nhiên Phần Trăm là thấp nhất về năng lực nhận dạng. 2. Trong những bảng thống kê trên, những hiệu quả in đậm biểu lộ được quyền lợi của tiếp cận tập thô trong lựa chọn và rút gọn đặc trưng. Thứ nhất, những phần này phải tương ứng với tác dụng nhận dạng từ 90 % trở lên. Thứ hai, có hai cách so sánh : KH OA C NT T – Đ H KH TN Chương 4 – Cài đặt chương trình và thử nghiệm = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 103 ƒ So sánh theo chiều ngang : tác dụng cho thấy chất lượng nhận dạng sau khi rút gọn đặc trưng sẽ tăng lên. Ví dụ : với tập Face_15_24_20, nếu giữ nguyên 10 đặc trưng thì tác dụng nhận dạng là 91.33, trong khi hiệu quả sau khi rút gọn còn 6 đặc trưng là 94.33. ƒ So sánh theo chiều xiên : với 2 tập đặc trưng cùng size, tập đặc trưng nhận được từ quy trình rút gọn cho chất lượng tốt hơn tập đặc trưng tương ứng với những thành phần tốt nhất của nghiên cứu và phân tích thành phần chính. Ví dụ : với tập Face_15_24_20, tập đặc trưng rút gọn size 6 cho hiệu quả nhận dạng 94.33 %, trong khi tập tương ứng với 6 thành phần tốt nhất của nghiên cứu và phân tích thành phần chính cho hiệu quả nhận dạng 87 %. 3. Trong những thử nghiệm trên tất cả chúng ta sử dụng thuật toán phân lớp người láng giềng gần nhất. Điều này cũng hoàn toàn có thể là nguyên do chất lượng phân loại không cao : chưa khi nào tất cả chúng ta đạt được hiệu quả nhận dạng 100 %. KH OA C NT T – Đ H KH TN Chương 5 – Tự nhìn nhận và hướng tăng trưởng ý kiến đề nghị = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 104 Chương 5 Tự Đánh Giá Và Hướng Phát Triển Đề Nghị ----- oOo ----- 5.1. Tự nhìn nhận Với những trình diễn kim chỉ nan cũng như tác dụng thực nghiệm, luận văn đã đạt được 1 số ít thành quả sau đây : ™ Trình bày rõ ràng và có hệ thống lý thuyết tập thô, minh hoạ vừa đủ những khái niệm bằng nhiều ví dụ. ™ Tìm hiểu 1 số ít yếu tố tổng quát trong bài toán nhận dạng mặt người : quy mô chung, những khó khăn vất vả gặp phải. ™ Nghiên cứu giải pháp nghiên cứu và phân tích thành phần chính trong bài toán nhận dạng, một số ít thuật toán học lượng hoá vector ứng dụng trong phân lớp tài liệu. ™ Cài đặt chương trình ứng dụng nhận dạng mặt người, trong đó kết hợp lý thuyết tập thô vào quy trình tiến độ lựa chọn và rút gọn đặc trưng. ™ Đưa ra nhận xét từ số liệu thống kê và biểu đồ để thấy được mặt mạnh, yếu của chiêu thức lựa chọn và rút gọn đặc trưng bằng triết lý tập thô. Đưa ra 1 số ít lý giải khởi đầu cho những hiệu quả. Tuy vậy, luận văn vẫn còn chưa hoàn thành xong ở những điểm sau : ™ Chưa đưa vào những giải pháp rút trích đặc trưng khác để có điều kiện kèm theo nhìn nhận đúng chuẩn. ™ Chưa so sánh được hiệu suất cao vận dụng kim chỉ nan tập thô trong bài toán lựa chọn và rút gọn đặc trưng với những tiếp cận khác. ™ Thuật toán phân lớp sử dụng còn quá đơn thuần. KH OA C NT T – Đ H KH TN Chương 5 – Tự nhìn nhận và hướng tăng trưởng đề xuất = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 105 ™ Tập dữ liệu chưa đa dạng chủng loại. 5.2. Hướng tăng trưởng ý kiến đề nghị Dựa trên 1 số ít điểm tự nhìn nhận trên, sau đây là một số ít hướng để tăng trưởng yếu tố được nêu trong luận văn này : ™ Nghiên cứu những thuật toán rút trích đặc trưng khác như : ánh xạ tự tổ chức triển khai ( SOM ), phép đổi khác Cosine rời rạc ( DCT ), … và so sánh với chiêu thức nghiên cứu và phân tích thành phần chính. ™ Nghiên cứu những thuật toán sử dụng trong phân lớp như Support Vector Machine, quy mô Markov ẩn, … Việc sử dụng những quy mô này chắc như đinh sẽ mang lại hiệu quả nhận dạng cao hơn bộ phân lớp người láng giềng gần nhất được sử dụng trong luận văn. ™ Nghiên cứu những giải pháp lựa chọn và rút gọn đặc trưng khác và so sánh với tiếp cận bằng triết lý tập thô. KH OA C NT T – Đ H KH TN = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 106 Tài Liệu Tham Khảo Chương 1 : [ 1 ] Jan Komorowski, Lech Polkowski, Andrzej Skowron : Rough Sets : A Tutorial. [ 2 ] Roman W. Swiniarski ( 2001 ) : Rough set methods in feature reduction and classification – Int. J. Appl. Math. Comput. Sci., 2001, Vol. 11, No. 3, 565 – 582. [ 3 ] Zhenghong Yang, Tianning Li, Feng Jin, Shuyun Xu ( 2002 ) : Rough Set in Data Mining. [ 4 ] Ron Kohavi, Brian Frasca ( 1994 ) : Useful Feature Subsets and Rough Set Reducts. [ 5 ] Nguyễn Hoàng Phương, Nadipuram R. Prasad, Lê Linh Phong : Nhập môn Trí tuệ giám sát, Nhà xuất bản Khoa học Kỹ thuật ( 2002 ). [ 6 ] Ning Zhong, Juzhen Dong, Setsuo Ohsuga ( 2001 ) : Using Rough Sets with Heuristic for Feature Selection. Journal of Intelligent Information System, 16, 199 – 214, 2001. [ 7 ] Nguyen Sinh Hoa, Nguyen Hung Son – Institut of Computer Science, Wasaw University, Poland : Some efficient algorithms for rough set methods. Chương 2 : [ 1 ] Matthew Turk, Alex Pentland ( 1991 ) : Eigenfaces for Recognition. [ 2 ] Ilker Atalay ( M. Sc. Thes is - 1996 ) : Face Recognition using eigenfaces. [ 3 ] Raphael Cendrillon ( 1999 ) : Real time face recognition using eigenfaces. [ 4 ] Trần Phước Long, Nguyễn Văn Lượng ( 2003 ) : Nhận dạng người dựa vào thông tin khuôn mặt Open trên ảnh. Luận văn tốt nghiệp, Khoa Công nghệ tin tức, Đại học Khoa học Tự nhiên Tp. HCM. KH OA C NT T – Đ H KH TN = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 107 [ 5 ] Shang – Hun Lin, Ph. D ( IC Media Corporation ) ( 2000 ) : An Introduction to Face Recognition Technology. Informing Science Special Issue on Multimedia Informing Technology – Part 2, Volume 3 No 1, 2000. [ 6 ] Sezin Kaymak ( 2003 ) : Face Detection, Recognition and Rescontruction using Eigenfaces. [ 7 ] LVQ_Pak, Neural Network Research Centre - Laboratory of Computer and Information Science – Helsinki University Of Technology. [ 8 ] Dr. Justin D.Wang ( 2003 ) : Neural Network, Department Science and Computer Engineering, La Trobe University, nước Australia. [ 9 ] Linsay I Smith ( 2002 ) : A tutorial on Principle Components Analysis. Chương 3 : [ 1 ] Ning Zhong, Juzhen Dong, Setsuo Ohsuga ( 2001 ) : Using Rough Sets with Heuristic for Feature Selection. Journal of Intelligent Information System, 16, 199 – 214, 2001. [ 2 ] Kenneth H. Rosen : Discrete Mathematics and Its Application, McGraw – Hill, 1994. Bản dịch tiếng Việt : Toán học rời rạc ứng dụng trong Tin học, Nhà xuất bản Khoa học Kỹ thuật, 1998. [ 3 ] Roman W. Swiniarski ( 2001 ) : Rough set methods in feature reduction and classification – Int. J. Appl. Math. Comput. Sci., 2001, Vol. 11, No. 3, 565 – 582. Chương 4 : [ 1 ] Roman W. Swiniarski ( 2001 ) : Rough set methods in feature reduction and classification – Int. J. Appl. Math. Comput. Sci., 2001, Vol. 11, No. 3, 565 – 582. [ 2 ] Nguyen Sinh Hoa, Nguyen Hung Son – Institut of Computer Science, KH OA C NT T – Đ H KH TN = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = 108 Wasaw University, Poland : Some efficient algorithms for rough set methods . Các file đính kèm theo tài liệu này :

  • pdfLuận văn-Khảo sát ứng dụng của tập thô trong lựa chọn và rút gọn đặc trưng cho bài toán nhận dạng.pdf
Rate this post

Bài viết liên quan

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments