ಇಂದು ಅನೇಕ ಬಹುರಾಷ್ಟ್ರೀಯ ಕಂಪನಿಗಳು ಉದ್ಯೋಗ ನೇಮಕಾತಿಗೆ ಎಐ ಆಧಾರಿತ ಸಾಫ್ಟ್ವೇರ್ಗಳನ್ನು ಬಳಸುತ್ತಿವೆ. ಸಾವಿರಾರು ಅರ್ಜಿಗಳನ್ನು ಮನುಷ್ಯರು ಪರಿಶೀಲಿಸುವ ಬದಲು, ಎಐ ಶಾರ್ಟ್ಲಿಸ್ಟ್ ಮಾಡುತ್ತದೆ. ಒಂದು ವೇಳೆ ಎಐಗೆ “ಇಂಥಾ ಹೆಸರಿನವರು ಸಮರ್ಥರಲ್ಲ” ಎಂಬ ಪೂರ್ವಗ್ರಹವಿದ್ದರೆ, ದಲಿತ ಮತ್ತು ಹಿಂದುಳಿದ ವರ್ಗದ ಅಭ್ಯರ್ಥಿಯೊಬ್ಬರು ಎಷ್ಟೇ ಅರ್ಹತೆ, ಕೌಶಲ್ಯ ಹೊಂದಿದ್ದರೂ, ಕೇವಲ ಅವರ ಹೆಸರಿನ ಕಾರಣಕ್ಕಾಗಿ ಸಾಫ್ಟ್ವೇರ್ ಅವರನ್ನು ತಿರಸ್ಕರಿಸುವ ಸಾಧ್ಯತೆ ದಟ್ಟವಾಗಿದೆ.
ತಂತ್ರಜ್ಞಾನವು ಮಾನವನಿಗಿಂತ ಹೆಚ್ಚು ನಿಷ್ಪಕ್ಷಪಾತ ಮತ್ತು ನ್ಯಾಯಯುತವಾಗಿ ವರ್ತಿಸುತ್ತದೆ ಎಂಬುದು ಆಧುನಿಕ ಜಗತ್ತಿನ ಒಂದು ಸಾಮಾನ್ಯ ನಂಬಿಕೆ. ಆದರೆ, ಇತ್ತೀಚಿನ ಸಂಶೋಧನೆಗಳು ಮತ್ತು ದತ್ತಾಂಶಗಳು ಈ ನಂಬಿಕೆಯನ್ನು ಹುಸಿಗೊಳಿಸಿವೆ. ಮನುಷ್ಯನ ಮೆದುಳಿನಲ್ಲಿ ಶತಮಾನಗಳಿಂದ ಬೇರೂರಿರುವ ಜಾತಿ ವ್ಯವಸ್ಥೆಯ ವಿಷವು ಈಗ ‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ’ (Artificial Intelligence – AI) ಅಂಗಳವನ್ನೂ ಪ್ರವೇಶಿಸಿದೆ. ಎಐಗೆ ಭಾರತೀಯ ಸಮಾಜದ ಜಾತಿ ವ್ಯವಸ್ಥೆಯ ಸಂಪೂರ್ಣ ಅರಿವಿದ್ದು, ಅದು ಮೇಲ್ಜಾತಿ ಹೆಸರುಗಳಿಗೆ ಉತ್ತಮ ಉದ್ಯೋಗಗಳನ್ನು ಮತ್ತು ತಳಸಮುದಾಯದ ಹೆಸರುಗಳಿಗೆ ಕೀಳು ಕೆಲಸಗಳನ್ನು ಹಂಚಿಕೆ ಮಾಡುವ ಮೂಲಕ ತನ್ನಲ್ಲಿರುವ ಪೂರ್ವಗ್ರಹವನ್ನು ಸಾಬೀತುಪಡಿಸುತ್ತಿದೆ. ಇದು ಕೇವಲ ತಾಂತ್ರಿಕ ದೋಷವಲ್ಲ, ಬದಲಾಗಿ ಡಿಜಿಟಲ್ ಯುಗದಲ್ಲಿ ಮುಂದುವರಿಯುತ್ತಿರುವ ಸಾಮಾಜಿಕ ಅಸಮಾನತೆಯ ಗಂಭೀರ ಮುಖವಾಗಿದೆ.
ಭಾರತದ ಸಂದರ್ಭದಲ್ಲಿ ಜಾತಿ ಎನ್ನುವುದು ಕೇವಲ ಸಾಮಾಜಿಕ ಗುರುತಲ್ಲ, ಅದು ಐತಿಹಾಸಿಕವಾಗಿ ಉದ್ಯೋಗ ಮತ್ತು ಅಂತಸ್ತನ್ನು ನಿರ್ಧರಿಸುವ ಮಾನದಂಡವಾಗಿತ್ತು. ದುರದೃಷ್ಟವಶಾತ್, ಅತ್ಯಾಧುನಿಕ ಎಐ ಮಾಡೆಲ್ಗಳು ಇದೇ ಜಾತಿ ಆಧಾರಿತ ಶ್ರೇಣೀಕರಣವನ್ನು ಕರಗತ ಮಾಡಿಕೊಂಡಿವೆ. ಸಂಶೋಧಕರು ಎಐ ಚಾಟ್ಬಾಟ್ಗಳಿಗೆ ಭಾರತೀಯ ಹೆಸರುಗಳನ್ನು ನೀಡಿ, ಅವರಿಗೆ ಸೂಕ್ತವಾದ ವೃತ್ತಿಯನ್ನು ಸೂಚಿಸಲು ಕೇಳಿದಾಗ ಬಂದ ಫಲಿತಾಂಶಗಳು ಆಘಾತಕಾರಿಯಾಗಿದ್ದವು. ಶರ್ಮಾ, ಅಯ್ಯರ್ ಅಥವಾ ಬ್ಯಾನರ್ಜಿಯಂತಹ ಹೆಸರುಗಳಿಗೆ ವೈದ್ಯ, ಇಂಜಿನಿಯರ್ ಅಥವಾ ವಿಜ್ಞಾನಿಯಂತಹ ‘ಬೌದ್ಧಿಕ’ ಕೆಲಸಗಳನ್ನು ಎಐ ಸೂಚಿಸಿದೆ. ಅದೇ ಸಮಯದಲ್ಲಿ, ತಳವರ್ಗಗಳಿಗೆ ಸೇರಿದ ಹೆಸರುಗಳು ಬಂದಾಗ, ಸ್ವಚ್ಛತಾ ಕಾರ್ಮಿಕರು, ದಿನಗೂಲಿ ನೌಕರರು ಅಥವಾ ಅಸಂಘಟಿತ ವಲಯದ ಕೆಲಸಗಳನ್ನು ಅದು ಶಿಫಾರಸು ಮಾಡಿದೆ.
ಈ ಸಮಸ್ಯೆಯ ಮೂಲ ಇರುವುದು ಎಐ ಕಲಿಯುವ ದತ್ತಾಂಶದಲ್ಲಿ. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ಶೂನ್ಯದಿಂದ ಜ್ಞಾನವನ್ನು ಸೃಷ್ಟಿಸುವುದಿಲ್ಲ; ಅದು ಅಂತರ್ಜಾಲದಲ್ಲಿ ಲಭ್ಯವಿರುವ ಕೋಟ್ಯಂತರ ಲೇಖನಗಳು, ಪುಸ್ತಕಗಳು ಮತ್ತು ವೆಬ್ಸೈಟ್ಗಳ ಮಾಹಿತಿಯನ್ನು ಓದಿ ಕಲಿಯುತ್ತದೆ. ಅಂತರ್ಜಾಲದಲ್ಲಿ ಲಭ್ಯವಿರುವ ಬಹುಪಾಲು ಮಾಹಿತಿಯು ಐತಿಹಾಸಿಕವಾಗಿ ಮೇಲ್ವರ್ಗದವರಿಂದಲೇ ಸೃಷ್ಟಿಸಲ್ಪಟ್ಟಿದೆ ಅಥವಾ ಜಾತಿ ವ್ಯವಸ್ಥೆಯ ಸಾಮಾಜಿಕ ವಾಸ್ತವವನ್ನು ದಾಖಲಿಸಿದೆ. ಹೀಗಾಗಿ, “ದಲಿತರು ಈ ಕೆಲಸ ಮಾಡುತ್ತಿದ್ದರು” ಎಂಬ ಐತಿಹಾಸಿಕ ವಾಸ್ತವವನ್ನು, ಎಐ “ದಲಿತರು ಈ ಕೆಲಸವನ್ನೇ ಮಾಡಬೇಕು” ಎಂಬ ನಿಯಮವನ್ನಾಗಿ ತಪ್ಪಾಗಿ ಅರ್ಥೈಸಿಕೊಳ್ಳುತ್ತಿದೆ. ಸಮಾಜದ ಪೂರ್ವಗ್ರಹಗಳನ್ನೇ ಅದು ಸತ್ಯವೆಂದು ಪರಿಗಣಿಸಿ ಕಲಿಯುತ್ತಿರುವುದೇ ಈ ಅಪಾಯಕ್ಕೆ ಪ್ರಮುಖ ಕಾರಣ.
ಅಮೆರಿಕದ ಕಾರ್ನೆಗಿ ಮೆಲನ್ ವಿಶ್ವವಿದ್ಯಾಲಯ ಸೇರಿದಂತೆ ಹಲವು ಪ್ರತಿಷ್ಠಿತ ಸಂಸ್ಥೆಗಳು ನಡೆಸಿದ ಅಧ್ಯಯನಗಳಲ್ಲಿ ಈ ಸತ್ಯ ಬಯಲಾಗಿದೆ. ಭಾಷಾ ಮಾದರಿಗಳು (Large Language Models) ಪದಗಳ ನಡುವಿನ ಸಂಬಂಧವನ್ನು ಗ್ರಹಿಸುವಾಗ, ಭಾರತೀಯ ಸಂದರ್ಭದ ಜಾತಿ ಮತ್ತು ವೃತ್ತಿಯ ನಡುವಿನ ನಂಟನ್ನು ಬಲವಾಗಿ ಗ್ರಹಿಸಿವೆ. ಪಾಶ್ಚಿಮಾತ್ಯ ದೇಶಗಳಲ್ಲಿ ವರ್ಣಬೇಧ ಹೇಗೆ ಎಐನಲ್ಲಿ ಪ್ರತಿಫಲಿಸುತ್ತಿದೆಯೋ, ಭಾರತದಲ್ಲಿ ಜಾತಿವ್ಯವಸ್ಥೆಯು ಎಐ ಅಲ್ಗಾರಿದಮ್ಗಳಲ್ಲಿ ಹಾಸುಹೊಕ್ಕಾಗಿದೆ. ಉದಾಹರಣೆಗೆ, ಅಪರಾಧ ಪ್ರಕರಣಗಳ ಬಗ್ಗೆ ಕತೆ ಬರೆಯಲು ಹೇಳಿದಾಗ, ಎಐ ಕೆಲವು ನಿರ್ದಿಷ್ಟ ಸಮುದಾಯದ ಹೆಸರುಗಳನ್ನು ಅಪರಾಧಿಗಳ ಸ್ಥಾನದಲ್ಲಿ ತಂದು ನಿಲ್ಲಿಸುವ ಪ್ರವೃತ್ತಿಯನ್ನು ತೋರಿಸಿದೆ.
ಇದನ್ನು ಓದಿದ್ದೀರಾ? ಬ್ಯಾಟ್ ಬೀಸಿದ ‘ಫಿನಿಶರ್’ಗೆ ಕ್ಲೀನ್ ಬೌಲ್ಡ್ ಆದ ಸಂಸದೆ
ಇದರ ಪರಿಣಾಮಗಳು ಕೇವಲ ಚಾಟ್ಬಾಟ್ಗಳಿಗೆ ಸೀಮಿತವಾಗಿಲ್ಲ ಎನ್ನುವುದು ಹೆಚ್ಚು ಆತಂಕಕಾರಿ ವಿಷಯ. ಇಂದು ಅನೇಕ ಬಹುರಾಷ್ಟ್ರೀಯ ಕಂಪನಿಗಳು ಉದ್ಯೋಗ ನೇಮಕಾತಿಗೆ ಎಐ ಆಧಾರಿತ ಸಾಫ್ಟ್ವೇರ್ಗಳನ್ನು ಬಳಸುತ್ತಿವೆ. ಸಾವಿರಾರು ಅರ್ಜಿಗಳನ್ನು ಮನುಷ್ಯರು ಪರಿಶೀಲಿಸುವ ಬದಲು, ಎಐ ಶಾರ್ಟ್ಲಿಸ್ಟ್ ಮಾಡುತ್ತದೆ. ಒಂದು ವೇಳೆ ಎಐಗೆ “ಇಂಥಾ ಹೆಸರಿನವರು ಸಮರ್ಥರಲ್ಲ” ಎಂಬ ಪೂರ್ವಗ್ರಹವಿದ್ದರೆ, ದಲಿತ ಮತ್ತು ಹಿಂದುಳಿದ ವರ್ಗದ ಅಭ್ಯರ್ಥಿಯೊಬ್ಬರು ಎಷ್ಟೇ ಅರ್ಹತೆ, ಕೌಶಲ್ಯ ಹೊಂದಿದ್ದರೂ, ಕೇವಲ ಅವರ ಹೆಸರಿನ ಕಾರಣಕ್ಕಾಗಿ ಸಾಫ್ಟ್ವೇರ್ ಅವರನ್ನು ತಿರಸ್ಕರಿಸುವ ಸಾಧ್ಯತೆ ದಟ್ಟವಾಗಿದೆ. ಇದು ಅರ್ಹತೆಗೆ ಕೊಡಲಿಪೆಟ್ಟು ನೀಡುವುದಲ್ಲದೆ, ಉದ್ಯೋಗ ರಂಗದಲ್ಲಿ ಜಾತಿ ತಾರತಮ್ಯವನ್ನು ಡಿಜಿಟಲೀಕರಣಗೊಳಿಸಿದಂತಾಗುತ್ತದೆ.
ಈ ತಾರತಮ್ಯವು ಬ್ಯಾಂಕಿಂಗ್ ಮತ್ತು ಸಾಲ ವಿತರಣೆಯಂತಹ ಕ್ಷೇತ್ರಗಳಿಗೂ ಕಾಲಿಡುವ ಅಪಾಯವಿದೆ. ವ್ಯಕ್ತಿಯೊಬ್ಬರ ಸಾಲ ಮರುಪಾವತಿಯ ಸಾಮರ್ಥ್ಯವನ್ನು ಲೆಕ್ಕ ಹಾಕುವಾಗ, ಎಐ ಅವರ ವಾಸಸ್ಥಳ ಅಥವಾ ಉಪನಾಮವನ್ನು ಋಣಾತ್ಮಕ ಅಂಶವನ್ನಾಗಿ ಪರಿಗಣಿಸಬಹುದು. ಐತಿಹಾಸಿಕವಾಗಿ ಶೋಷಿತ ಸಮುದಾಯಗಳು ವಾಸಿಸುವ ಪ್ರದೇಶಗಳನ್ನು ‘ರಿಸ್ಕ್’ ಇರುವ ಪ್ರದೇಶಗಳೆಂದು ಎಐ ಪರಿಗಣಿಸಿದರೆ, ಆ ಸಮುದಾಯದ ಜನರಿಗೆ ಸಾಲ ಸಿಗುವುದು ಕಷ್ಟವಾಗುತ್ತದೆ. ಹೀಗೆ ತಂತ್ರಜ್ಞಾನವು ಬಡವರನ್ನು ಮತ್ತಷ್ಟು ಬಡವರನ್ನಾಗಿ ಮತ್ತು ಶೋಷಿತರನ್ನು ಮತ್ತಷ್ಟು ಅಂಚಿಗೆ ತಳ್ಳುವ ಸಾಧನವಾಗಿ ಬದಲಾಗಬಹುದು.
ಜಾಗತಿಕ ಮಟ್ಟದಲ್ಲಿ ಎಐ ಅಭಿವೃದ್ಧಿಪಡಿಸುವ ಗೂಗಲ್, ಓಪನ್ ಎಐ, ಮೈಕ್ರೋಸಾಫ್ಟ್ನಂತಹ ದೈತ್ಯ ಕಂಪನಿಗಳು ವರ್ಣಬೇಧ ನೀತಿಯನ್ನು ತಡೆಯಲು ಫಿಲ್ಟರ್ಗಳನ್ನು ಅಳವಡಿಸಿವೆ. ಆದರೆ, ಭಾರತದ ಸಂಕೀರ್ಣವಾದ ಜಾತಿ ವ್ಯವಸ್ಥೆಯ ಸೂಕ್ಷ್ಮತೆಗಳು ಸಿಲಿಕಾನ್ ವ್ಯಾಲಿಯ ಎಂಜಿನಿಯರ್ಗಳಿಗೆ ಅರ್ಥವಾಗದಿರಬಹುದು ಅಥವಾ ಅವರು ಇದನ್ನು ಗಂಭೀರವಾಗಿ ಪರಿಗಣಿಸದೇ ಇರಬಹುದು. ಪಾಶ್ಚಿಮಾತ್ಯ ದತ್ತಾಂಶಗಳ ಮೇಲೆ ತರಬೇತಿ ಪಡೆದ ಎಐಗೆ ‘ಜಾತಿ’ ಎನ್ನುವುದು ಕೇವಲ ಒಂದು ಪದವಾಗಿರಬಹುದು, ಆದರೆ ಭಾರತದಲ್ಲಿ ಅದು ವ್ಯಕ್ತಿಯ ಅಸ್ಮಿತೆ ಮತ್ತು ಅವಮಾನ ಎರಡೂ ಆಗಿರುತ್ತದೆ. ಸ್ಥಳೀಯ ಸಾಂಸ್ಕೃತಿಕ ಸಂದರ್ಭಗಳನ್ನು ಅರಿತುಕೊಳ್ಳದ ತಂತ್ರಜ್ಞಾನವು ಭಾರತಕ್ಕೆ ಮಾರಕವಾಗಬಲ್ಲದು.
’ನ್ಯಾಚುರಲ್ ಲ್ಯಾಂಗ್ವೇಜ್ ಪ್ರೊಸೆಸಿಂಗ್’ (NLP) ವ್ಯವಸ್ಥೆಯಲ್ಲಿ ಜಾತಿ ಸೂಚಕ ಪದಗಳನ್ನು ಹೇಗೆ ನಿರ್ವಹಿಸಬೇಕು ಎಂಬ ಬಗ್ಗೆ ಸ್ಪಷ್ಟ ನೀತಿಗಳ ಕೊರತೆಯಿದೆ. ಬ್ರಾಹ್ಮಣ ಎಂದು ಟೈಪ್ ಮಾಡಿದಾಗ ‘ಜ್ಞಾನಿ’, ‘ವಿದ್ವಾಂಸ’ ಎಂಬ ಪದಗಳನ್ನು ಜೋಡಿಸುವ ಎಐ, ದಲಿತ ಎಂದು ಟೈಪ್ ಮಾಡಿದಾಗ ನಕಾರಾತ್ಮಕ ಅಥವಾ ಕೀಳರಿಮೆಯ ಪದಗಳನ್ನು ಜೋಡಿಸುತ್ತಿದೆ. ಇದನ್ನು ‘ಅಲ್ಗಾರಿದಮಿಕ್ ಬಯಾಸ್’ (Algorithmic Bias) ಅಥವಾ ಅಲ್ಗಾರಿದಮ್ ಮೂಲಕ ನಡೆಯುವ ಅಸ್ಪೃಶ್ಯತೆ ಎಂದು ಕರೆಯಬಹುದು. ಸಮಾಜದಲ್ಲಿ ಅಸ್ಪೃಶ್ಯತೆಯನ್ನು ನಿವಾರಿಸಲು ಕಾನೂನುಗಳಿವೆ, ಆದರೆ ಕೋಡ್ಗಳಲ್ಲಿ ಅಡಗಿರುವ ಈ ಅಸ್ಪೃಶ್ಯತೆಯನ್ನು ಶಿಕ್ಷಿಸಲು ಸದ್ಯ ನಮ್ಮಲ್ಲಿ ಯಾವುದೇ ಕಾನೂನು ಚೌಕಟ್ಟು ಇಲ್ಲದಿರುವುದು ಸಮಸ್ಯೆಯ ತೀವ್ರತೆಯನ್ನು ಹೆಚ್ಚಿಸಿದೆ.
ಈ ಅಪಾಯವನ್ನು ಎದುರಿಸಲು ಬಹುಮುಖಿ ಹೋರಾಟದ ಅಗತ್ಯವಿದೆ. ಮೊದಲನೆಯದಾಗಿ, ಎಐ ಕಂಪನಿಗಳು ತಮ್ಮ ದತ್ತಾಂಶದಲ್ಲಿರುವ ಕಸವನ್ನು ಶುದ್ಧೀಕರಿಸಬೇಕು. ಭಾರತೀಯ ಭಾಷೆಗಳಲ್ಲಿ ಎಐ ಅಭಿವೃದ್ಧಿಪಡಿಸುವಾಗ, ಜಾತಿ ಸೂಕ್ಷ್ಮತೆಯನ್ನು ಅರಿತಿರುವ ಸಮಾಜಶಾಸ್ತ್ರಜ್ಞರು ಮತ್ತು ಭಾಷಾ ತಜ್ಞರನ್ನು ತಾಂತ್ರಿಕ ತಂಡದಲ್ಲಿ ಸೇರಿಸಿಕೊಳ್ಳಬೇಕು. ಕೇವಲ ತಂತ್ರಜ್ಞರು ಮಾತ್ರ ಎಐ ರೂಪಿಸಿದರೆ ಇಂತಹ ದೋಷಗಳು ಸಹಜ. ಎರಡನೆಯದಾಗಿ, ಭಾರತ ಸರ್ಕಾರವು ‘ಡಿಜಿಟಲ್ ಇಂಡಿಯಾ’ದ ಭಾಗವಾಗಿ ‘ಎಥಿಕಲ್ ಎಐ’ (ನೈತಿಕ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ) ಮಾರ್ಗಸೂಚಿಗಳನ್ನು ಬಿಡುಗಡೆ ಮಾಡಬೇಕು. ತಂತ್ರಜ್ಞಾನವು ಸಂವಿಧಾನದ ಆಶಯವಾದ ಸಮಾನತೆಗೆ ವಿರುದ್ಧವಾಗಿ ವರ್ತಿಸಿದರೆ ಅದನ್ನು ನಿಯಂತ್ರಿಸುವ ಅಧಿಕಾರ ಸರ್ಕಾರಕ್ಕಿರಬೇಕು.
ಅಂತಿಮವಾಗಿ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ಮನುಷ್ಯನ ಪ್ರತಿಬಿಂಬವೇ ಹೊರತು, ಸ್ವತಂತ್ರ ಅಸ್ತಿತ್ವವಲ್ಲ. ನಾವು ಸಮಾಜದಲ್ಲಿ ಏನನ್ನು ಬಿತ್ತಿದ್ದೇವೆಯೋ, ಅದನ್ನೇ ಎಐ ಬೆಳೆಸುತ್ತಿದೆ. ಆದ್ದರಿಂದ, ತಂತ್ರಜ್ಞಾನವನ್ನು ಕುರಿತು ಕುರುಡು ನಂಬಿಕೆ ಇಡುವ ಮೊದಲು, ಅದರಲ್ಲಿ ಅಡಗಿರುವ ಈ ಸೂಕ್ಷ್ಮ ಜಾತಿ ರಾಜಕಾರಣವನ್ನು ನಾವು ಮುಖಾಮುಖಿಯಾಗಬೇಕಿದೆ. ಎಐ ತಂತ್ರಜ್ಞಾನವು ಮಾನವ ಕುಲದ ಒಳಿತಿಗಾಗಿ ಬಳಕೆಯಾಗಬೇಕೇ ವಿನಃ, ಶತಮಾನಗಳ ಹಿಂದಿನ ಪ್ರತಿಗಾಮಿ ವ್ಯವಸ್ಥೆಯನ್ನು ಡಿಜಿಟಲ್ ರೂಪದಲ್ಲಿ ಶಾಶ್ವತಗೊಳಿಸಲು ಬಳಕೆಯಾಗಬಾರದು. ಈ ನಿಟ್ಟಿನಲ್ಲಿ ಎಚ್ಚೆತ್ತುಕೊಳ್ಳಲು ಇದು ಸಕಾಲ.





